Logo Studenta

Detección de anómalias

¡Este material tiene más páginas!

Vista previa del material en texto

TRABAJO FINAL DE GRADO 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
TÍTULO DEL TFG: Algoritmos de detección de anomalías para la 
detección de objetos extraños (FODs) en pistas de aeropuertos 
 
TITULACIÓN: Grado en Ingeniería de Sistemas de Telecomunicación 
 
AUTOR: Diego Rodrigo de Torres Ontiveros 
 
DIRECTORA: Esther Salamí 
 
FECHA: 12 de julio de 2023 
 
 
 
Título: Algoritmos de detección de anomalías para la detección de objetos 
extraños (FODs) en pistas de aeropuertos 
 
Autor: Diego Rodrigo de Torres Ontiveros 
 
Directora: Esther Salamí 
 
Fecha: 12 de julio de 2023 
 
 
 
 
Resumen 
 
En este trabajo, se ha realizado una investigación sobre el uso de técnicas de 
detección de anomalías para la detección de FODs en pistas de aeropuertos. 
 
El enfoque principal ha sido evaluar diferentes algoritmos de detección de 
anomalías y proponer un modelo desarrollado desde cero, con el fin de 
investigar la detección de anomalías en diferentes condiciones y escenarios 
operativos. Para lograr este objetivo, se ha llevado a cabo una revisión 
detallada de la literatura existente en el campo de la detección de anomalías, 
investigando los avances más recientes y las técnicas más prometedoras en 
este ámbito. Además, se han diseñado y realizado experimentos utilizando 
conjuntos de datos específicos de FODs, evaluando los resultados obtenidos 
mediante métricas de rendimiento establecidas. 
 
Los resultados experimentales revelan la efectividad de los modelos 
propuestos para detectar de manera precisa y eficiente objetos extraños en 
pistas de aeropuertos, incluso en condiciones desafiantes. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Title: Anomaly detection algorithms for foreign object detection (FODs) on 
airport runways 
 
Author: Diego Rodrigo de Torres Ontiveros 
 
Director: Esther Salamí 
 
Date: July 12th, 2023 
 
 
 
 
Overview 
 
The aim of this project has been to investigate the use of anomaly detection 
techniques for the detection of FODs on airport runways. 
 
The main approach consisted of evaluating different anomaly detection 
algorithms and proposing a model developed from scratch, in order to 
investigate anomaly detection in different operating conditions and scenarios. 
To achieve this goal, a detailed review of the existing literature in the field of 
anomaly detection has been carried out, investigating the most recent 
improvements and the most promising techniques in this field. In addition, 
experiments have been designed and performed using specific FOD datasets, 
evaluating the results obtained using established efficiency metrics. 
 
Experimental results reveal the effectiveness of the proposed models to detect 
foreign objects accurately and efficiently on airport runways, even under 
challenging conditions. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
AGRADECIMIENTOS 
 
 
Quiero expresar mi más profundo agradecimiento a mis padres y mi hermana 
por todo el esfuerzo y sacrificio que han realizado a lo largo de mi carrera 
académica. Desde el principio, ellos han sido mi mayor apoyo; han estado a mi 
lado en cada paso del camino, animándome en momentos difíciles y celebrando 
mis logros. Su dedicación y sacrificio han sido fundamentales para mi éxito, y no 
puedo expresar con palabras cuánto los valoro por ello. Gracias por creer en mí. 
 
También quiero extender mi sincero agradecimiento a mis compañeros y 
profesores de carrera. A lo largo de estos años, hemos compartido innumerables 
experiencias y desafíos académicos juntos. Su colaboración, compañerismo y 
amistad han sido fundamentales en mi desarrollo personal y académico. Me 
gustaría hacer una mención especial a Esther Salamí, tutora y directora de mi 
TFG, la cual ha sido una guía excepcional a lo largo de mi proyecto, brindándome 
su tiempo, conocimientos y orientación. 
 
 
 
 
 
ÍNDICE 
INTRODUCCIÓN ............................................................................................... 1 
CAPÍTULO 1. ESTADO DEL ARTE .................................................................. 3 
1.1. Introducción a la detección de anomalías ...................................................................... 3 
1.2. Sistemas para la detección de objetos/anomalías......................................................... 6 
1.3. Métodos de detección de anomalías en la literatura ..................................................... 7 
1.4. Evaluación de algoritmos de detección de anomalías .................................................. 8 
CAPÍTULO 2. CONJUNTO DE DATOS .......................................................... 10 
2.1. Conjunto de datos FOD-A ............................................................................................... 10 
2.2. Transformaciones de los datos del conjunto de datos ............................................... 13 
2.3. Entorno de desarrollo ..................................................................................................... 16 
CAPÍTULO 3. DESARROLLO Y ENTRENAMIENTO DE MODELOS ............ 19 
3.1. Modelo desarrollado ....................................................................................................... 19 
3.1.1. Propuesta basada en KDE y error de reconstrucción por imagen ....................... 26 
3.1.2. Propuesta basada en el error de reconstrucción por zonas de imagen .............. 32 
3.2. Rendimiento de los modelos evaluados y del modelo propuesto ............................. 42 
CAPÍTULO 4. ANÁLISIS COMPARATIVO ...................................................... 43 
CAPÍTULO 5. CONCLUSIONES ..................................................................... 47 
5.3. Conclusiones ................................................................................................................... 47 
5.1. Trabajo futuro .................................................................................................................. 48 
BIBLIOGRAFÍA ............................................................................................... 49 
ANEXO A: CÓDIGO PARA EL DESARROLLO DE AUTOZONES30 ............ 53 
ANEXO B: CÓDIGO PARA EL ENTRENAMIENTO DE MODELOS DE 
ANOMALIB ...................................................................................................... 62 
ANEXO C: CÓDIGO PARA LA GENERACIÓN DE UN SUBDATASET DE 100 
IMÁGENES ALEATORIAS .............................................................................. 64 
ANEXO D: CÓDIGO PARA LA ELIMINACIÓN DE OBJETOS DE LAS 
IMÁGENES ...................................................................................................... 66 
 
 
 
 
LISTA DE FIGURAS 
 
 
Fig. 2.1 Imagen (000122.jpg) perteneciente al conjunto de datos FOD-A. ..... 10 
Fig. 2.2 Archivo (000122.xml) de anotación, correspondiente a la imagen 
000122.jpg, perteneciente al conjunto de datos FOD-A. ........................... 11 
Fig. 2.3 Imagen (002437.jpg) perteneciente al conjunto de datos FOD-A incluida 
en uno de los subdatasets. ....................................................................... 13 
Fig. 2.4 Imagen generada sin anomalía correspondiente a la imagen 002437.jpg 
incluida en uno de los subdatasets. .......................................................... 14 
Fig. 2.5 Imagen (004265.jpg) perteneciente al conjunto de datos FOD-A incluida 
en uno de los subdatasets. ....................................................................... 14 
Fig. 2.6 Imagen generada sin anomalía correspondiente a la imagen 004265.jpg 
incluida en uno de los subdatasets. .......................................................... 15 
Fig. 2.7 Captura del notebook de Google Colab usado para generar un 
subdataset de 100 imágenes aleatorias. ................................................... 18 
Fig. 3.1 Esquema representativo de la arquitectura de un autoencoder. (Véase 
[16]). .......................................................................................................... 19 
Fig. 3.2 Funcionamientodel encoder de un autoencoder con una muestra del 
conjunto de datos MNIST. (Véase [17]). ................................................... 20 
Fig. 3.3 Funcionamiento del decoder de un autoencoder con una muestra del 
conjunto de datos MNIST. (Véase [17]). ................................................... 21 
Fig. 3.4 Funcionamiento de un autoencoder con una muestra del conjunto de 
datos MNIST. (Véase [17]). ....................................................................... 22 
Fig. 3.5 Ejemplo del funcionamiento de un autoencoder para generación de 
imágenes nuevas (variational autoencoder). (Véase [18]). ....................... 23 
Fig. 3.6 Ejemplo del funcionamiento de un autoencoder para la eliminación del 
ruido en una muestra del conjunto de datos MNIST. (Véase [19]). ........... 24 
Fig. 3.7 Arquitectura del autoencoder usado. .................................................. 25 
Fig. 3.8 Distribución del error de reconstrucción de uno de los subdatsets. .... 28 
Fig. 3.9 Distribución de la densidad el código latente de uno de los subdatsets.
 .................................................................................................................. 28 
Fig. 3.10 Distribución del error de reconstrucción de uno de los subdatsets con 
punto de intersección. ............................................................................... 30 
Fig. 3.11 Distribución de la densidad el código latente de uno de los subdatsets 
con punto de intersección. ........................................................................ 30 
Fig. 3.12 Desempeño del modelo desarrollado con el conjunto de datos FOD-A.
 .................................................................................................................. 31 
Fig. 3.13 Histograma de errores de reconstrucción por zonas de imágenes 
normales. .................................................................................................. 33 
Fig. 3.14 Histograma de errores de reconstrucción por zonas de imágenes 
anómalas. .................................................................................................. 34 
Fig. 3.15 Superposición de histogramas .......................................................... 35 
Fig. 3.16 Zoom de la superposición de histogramas. ....................................... 36 
Fig. 3.17 Zoom de la superposición de histogramas y umbral. ........................ 36 
Fig. 3.18 Histograma de errores de reconstrucción de las zonas de una imagen 
anómala de prueba (imagen 013460.jpg).................................................. 37 
Fig. 3.19 Imagen (013460.jpg) perteneciente al conjunto de datos FOD-A 
incluida en uno de los subdatasets. .......................................................... 38 
 
Fig. 3.20 Reconstrucción de la imagen (013460.jpg) perteneciente al conjunto de 
datos FOD-A incluida en uno de los subdatasets. .................................... 38 
Fig. 3.21 Surface de los errores de reconstrucción por zonas de la imagen 
013460.jpg. ............................................................................................... 39 
Fig. 3.22 Surface de los errores de reconstrucción por zonas de la imagen 
013460.jpg umbral establecido. ................................................................ 39 
Fig. 3.23 Rendimiento del modelo usando esta segunda propuesta, denominado 
como AutoZones30. .................................................................................. 40 
Fig. 3.24 Surface de los errores de reconstrucción por zonas de la imagen 
013460.jpg. ............................................................................................... 41 
Fig. 3.25 Superposición de la imagen 013460.jpg y el surface de los errores de 
reconstrucción por zonas correspondientes. ............................................. 41 
Fig. 3.27 Rendimientos obtenidos de los modelos evaluados y del modelo 
propuesto (AutoZones30). ......................................................................... 42 
Fig. 3.28 Mapa de posicionamiento del image_AUROC vs image_F1score. ... 43 
Fig. 3.29 Mapa de posicionamiento del image_F1score vs throughput. .......... 44 
Fig. 3.30 Comparación del número de parámetros entrenables de los modelos.
 .................................................................................................................. 45 
Fig. 3.31 Comparación del tiempo de entrenamiento de los modelos. ............ 46 
 
 
ABREVIATURAS 
 
 
 
FOD Foreign Object Debris 
FOD-A Foreign Object Debris in Airports 
CNN Convolutional Neural Network 
GAN Generative Adversarial Network 
PCA Principal Component Analysis 
k-NN k-Nearest Neighbors 
DBSCAN Density-Based Spatial Clustering of Applications with Noise 
PADIM Pattern Anomaly Detection and Identification 
ROC Receiver Operating Characteristic 
AUROC Area Under the ROC Curve 
CPU Central Processing Unit 
GPU Graphics Processing Unit 
TPU Tensor Processing Unit 
RNN Recurrent Neural Network 
MNIST Modified National Institute of Standards and Technology 
MSE Mean Squared Error 
KDE Kernel Density Estimatior 
DFKDE Diffuse Kernel Density Estimatior 
DFM Dynamic Fusion Module 
STFPM Student-Teacher Feature Pyramid Matching 
 
 
 
 
Introducción 1 
INTRODUCCIÓN 
 
 
La seguridad en los aeropuertos es un tema de suma importancia y requiere de 
una supervisión constante para garantizar la protección de las aeronaves, los 
pasajeros y el personal en tierra. Uno de los desafíos críticos en este ámbito es 
la presencia de objetos extraños en las pistas de aterrizaje. Estos objetos, que 
pueden variar desde pequeñas piezas de equipo hasta restos de aeronaves, 
representan una amenaza significativa para la seguridad operativa de los 
aeropuertos y las aeronaves en movimiento. 
 
Para abordar este problema, se han desarrollado diferentes técnicas y 
tecnologías que van desde inspecciones manuales llevadas a cabo por el 
personal de mantenimiento hasta sistemas automatizados de detección basados 
en imágenes y sensores. Entre las soluciones automatizadas, los algoritmos de 
detección de anomalías se han convertido en una opción atractiva debido a su 
capacidad para identificar patrones anómalos en los datos recopilados de las 
pistas de aeropuertos. 
 
En este trabajo, se ha llevado a cabo una investigación sobre el uso de técnicas 
de detección de anomalías para la detección de FODs en pistas de aeropuertos. 
El enfoque principal ha sido evaluar diferentes algoritmos de detección de 
anomalías además de proponer un modelo desarrollado desde cero, con el 
objetivo de investigar la detección de anomalías en diferentes condiciones y 
escenarios operativos. 
 
Cabe destacar que el conjunto de datos usado procede del trabajo FOD-A: A 
Dataset for foreign Object Debris in Airports (véase [1]), en el cual se realiza un 
trabajo de recopilación de datos (imágenes de pistas de aeropuertos con 
anomalías/objetos) con el objetivo de proveer de un conjunto de datos extenso y 
útil para el desarrollo de las áreas del Machine Learning y Computer Vision 
enfocadas a la detección de objetos/anomalías en aeropuertos. 
 
En el primer capítulo se presenta una visión general de la detección de 
anomalías, comenzando con una introducción al tema. Se exploran los diferentes 
sistemas utilizados para la detección de objetos o anomalías, así como los 
métodos más comunes que se han investigado en la literatura. También se 
aborda la evaluación de algoritmos de detección de anomalías, analizando cómo 
se determina la eficacia de estos métodos. 
 
En el segundo capítulo se describe el conjunto de datos utilizado en el estudio, 
conocido como FOD-A. Se explican las características y particularidades de este 
conjunto de datos, así como las transformaciones que se aplicaron a los datos 
para su procesamiento y análisis. Además, se menciona el entorno de desarrollo 
utilizado durante el estudio. 
 
En el tercer capítulo, se presenta en detalle el modelo desarrollado para la 
detección de anomalías,incluyendo su arquitectura, técnicas y parámetros clave. 
Además, se brinda una presentación de los resultados obtenidos de otros 
2 Introducción 
 
modelos ya existentes entrenados con el conjunto de datos FOD-A. Este capítulo 
ofrece una visión integral del enfoque utilizado y sienta las bases para el análisis 
comparativo de los resultados en el siguiente capítulo. 
 
En el cuarto capítulo se lleva a cabo un análisis comparativo entre los diferentes 
modelos, destacando sus fortalezas y debilidades, con el objetivo de determinar 
su eficacia en la detección de anomalías. 
 
En el quinto capítulo se presentan las conclusiones basadas en los resultados y 
el análisis comparativo de los modelos devaluados y del modelo desarrollado. 
Se resumen los hallazgos clave obtenidos. Se discute la efectividad de la 
metodología empleada en el desarrollo y entrenamiento de los modelos y se 
sugieren posibles mejoras y direcciones futuras de investigación.
Estado del arte 3 
CAPÍTULO 1. ESTADO DEL ARTE 
 
 
1.1. Introducción a la detección de anomalías 
 
La detección de anomalías, también conocida como detección de valores 
atípicos, es una técnica de análisis de datos que se utiliza para identificar 
patrones inusuales o anómalos que difieren significativamente del 
comportamiento normal en un conjunto de datos. 
 
La detección de anomalías se ha aplicado en una amplia variedad de dominios, 
como la detección de fraudes, la detección de intrusiones en sistemas de 
seguridad, el monitoreo de constantes de la salud y muchas otras áreas donde 
la identificación de patrones anómalos puede ser crítica. En el contexto 
específico de la seguridad en los aeropuertos, la detección de anomalías se ha 
convertido en una herramienta clave para identificar objetos extraños o 
potencialmente peligrosos en las pistas de aterrizaje, como los objetos extraños 
conocidos como FODs. 
 
Los datos utilizados para la detección de anomalías pueden tener características 
específicas que los diferencian de los datos normales. Algunas de las principales 
características de los datos para la detección de anomalías son las siguientes: 
 
• Distribución asimétrica: Los datos anómalos tienden a tener una 
distribución asimétrica en comparación con los datos normales. Esto 
significa que los valores anómalos tienden a estar más alejados de la 
media o mediana que los valores normales. 
 
• Alta varianza: Los datos anómalos suelen tener una alta varianza en 
comparación con los datos normales. Esto significa que los valores 
anómalos pueden variar mucho más que los valores normales. 
 
• Frecuencia baja: Los datos anómalos suelen ser poco frecuentes en 
comparación con los datos normales. Esto significa que los valores 
anómalos ocurren con menos frecuencia que los valores normales. 
 
• Correlación débil: Los datos anómalos suelen tener una correlación débil 
con los datos normales. Esto significa que los valores anómalos no están 
relacionados significativamente con los valores normales. 
 
• Valores extremos: Los datos anómalos a menudo son valores extremos 
que caen fuera del rango normal de los datos. Esto significa que los 
valores anómalos pueden ser muy grandes o pequeños en comparación 
con los valores normales. 
 
• Patrones inusuales: Los datos anómalos pueden presentar patrones 
inusuales en comparación con los datos normales. Esto significa que los 
4 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
valores anómalos pueden estar agrupados de manera diferente o tener 
un comportamiento diferente al de los valores normales. 
 
Los modelos evaluados en el capítulo 4 utilizan diversas características para 
identificar patrones anómalos en las imágenes. Estas características incluyen: 
 
• Características visuales: Los modelos analizan atributos visuales de las 
imágenes, como la textura, el color, la forma y la distribución espacial de 
los objetos en las pistas. Los objetos anómalos, como los presentes en 
FOD-A, a menudo tienen características visuales distintivas que los 
diferencian de los objetos normales. 
 
• Características estructurales: Los modelos también consideran la 
estructura y la composición de los objetos en las imágenes. Pueden 
analizar la presencia de objetos desalineados, objetos con formas 
irregulares o patrones que no coinciden con el entorno circundante. 
 
Estas características son utilizadas por los modelos para establecer diferencias 
significativas entre imágenes normales e imágenes que presenten anomalías. 
 
El proceso de detección de anomalías generalmente se divide en tres etapas. 
En primer lugar, se recopilan datos relevantes, que pueden incluir imágenes, 
señales de sensores u otro tipo de información. Una segunda etapa donde los 
datos se utilizan para construir un modelo de referencia que representa el 
comportamiento normal o esperado de los datos. Y posteriormente, una tercera 
etapa donde se comparan nuevos datos con el modelo de referencia para 
identificar cualquier desviación o discrepancia significativa. 
 
En el caso de la detección de anomalías en las pistas de aeropuertos, los datos 
consisten en imágenes capturadas por cámaras u otros dispositivos de 
vigilancia. Estas imágenes proporcionan información visual sobre el estado de 
las pistas y pueden revelar la presencia de objetos extraños o anomalías en 
forma de FODs. La primera etapa de recopilación de imágenes ha sido 
desarrollada por los autores del FOD-A: A Dataset for foreign Object Debris in 
Airports (véase [1]), el cuál proporciona alrededor de 34.000 imágenes de pistas 
de aeropuertos con la presencia de objetos. 
 
En el presente trabajo, se han desarrollado las dos últimas etapas: la 
construcción (o entrenamiento) del modelo de referencia; y la comparación de 
nuevos datos (nuevas imágenes) con el modelo entrenado. En este trabajo, se 
ha optado por el campo del Deep Learning para desarrollar y entrenar los 
modelos. 
 
En la segunda etapa dónde se construye el modelo de referencia, se presentan 
dos alternativas: 
 
• Construir un modelo que represente el comportamiento o que recoja las 
características de los datos normales 
 
Estado del arte 5 
• Construir un modelo que represente el comportamiento o que recoja las 
características de los datos anómalos 
 
La recopilación de datos anómalos auténticos puede ser un desafío, ya que estos 
eventos ocurren con baja frecuencia y su reproducción controlada en entornos 
reales puede resultar difícil. Por lo tanto, obtener suficientes datos anómalos para 
entrenar y evaluar los modelos puede ser una tarea complicada. Además, existe 
la posibilidad de que los datos anómalos recopilados no cubran todas las 
posibles variaciones y escenarios anómalos que podrían ocurrir en la realidad, 
lo que puede limitar la capacidad de generalización de los modelos entrenados. 
Aun así, gracias a la recopilación de datos anómalos llevada a cabo por los 
autores de etapa de recopilación de imágenes ha sido desarrollada por los 
autores del FOD-A: A Dataset for foreign Object Debris in Airports (véase [1]), se 
puede disponer de un conjunto de datos anómalos extenso. Como se verá más 
adelante, tanto los modelos entrenados ya existentes que se han evaluado como 
el modelo desarrollado recogen características de los datos normales. 
 
Para el entrenamiento y evaluación de modelos ya existentes se ha utilizado 
AnomaLib (véase [5]), una biblioteca especializada en la detección de anomalías 
en imágenes, que ofrece una amplia gama de modelos y herramientas para este 
propósito. AnomaLib ha sido ampliamente utilizada en la comunidad científica y 
cuenta con una sólida reputación en el campo de la detección de anomalías. 
Proporciona modelos punteros pre-entrenados basados en técnicas avanzadas 
de aprendizaje automático, como redes neuronales convolucionales (CNN), 
redes generativas adversarias (GAN) y algoritmos de análisis de valores 
extremos. Estos modelos están diseñados para identificarpatrones anómalos en 
imágenes y pueden ser adaptados y ajustados para satisfacer las necesidades 
específicas de cada aplicación. 
 
Una de las técnicas más comunes utilizadas en la detección de anomalías es el 
enfoque basado en aprendizaje no supervisado, que permite detectar patrones 
anómalos sin la necesidad de datos etiquetados previamente. Algunos 
algoritmos ampliamente utilizados incluyen el Análisis de Componentes 
Principales (PCA), el Análisis de Valores Extremos (Outlier Analysis) y los 
modelos generativos, como las Redes Generativas Adversarias (GAN). Estos 
algoritmos buscan identificar las desviaciones más significativas respecto a los 
datos normales y establecer un umbral para clasificar las instancias como 
anómalas o normales. Con los avances en el campo del Deep Learning, las redes 
neuronales convolucionales y otros modelos basados en redes neuronales han 
demostrado ser eficaces en la detección de anomalías en imágenes. Estos 
modelos pueden aprender automáticamente características relevantes y realizar 
una detección más precisa y sofisticada de objetos o patrones inusuales en las 
pistas de aeropuertos. 
 
Además de entrenar y evaluar modelos ya existentes, en el presente trabajo se 
propone un modelo el cual se ha diseñado desde cero. El desarrollo llevado a 
cabo y el funcionamiento de este mismo se explica en el capítulo cuatro. 
 
6 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
El modelo desarrollado en el presente trabajo se basa en una arquitectura de 
redes neuronales convolucionales (CNN) y se ha diseñado específicamente para 
la detección de anomalías en imágenes. 
 
Es importante destacar que el modelo desarrollado en este trabajo no pretende 
reemplazar los modelos pre-entrenados existentes, sino proporcionar una 
alternativa específica y adaptada a las necesidades de detección de anomalías 
en las pistas de aeropuertos. 
 
 
1.2. Sistemas para la detección de objetos/anomalías 
 
Como se ha comentado previamente, la detección de objetos extraños en pistas 
de aeropuertos es un problema importante de seguridad y eficiencia en la 
industria de la aviación. Existen varias tecnologías y enfoques utilizados 
actualmente para detectar y prevenir la presencia de FOD en las pistas de los 
aeropuertos. 
 
Algunas de las tecnologías más comunes para la detección de FOD incluyen: 
 
• Sistemas de radar: Los sistemas de radar pueden detectar objetos en la 
superficie de la pista y alertar a los controladores de tráfico aéreo sobre la 
presencia de FOD, también se utilizan para supervisar el movimiento de 
vehículos y personal en la pista. 
 
• Sistemas de visión artificial: Los sistemas de visión artificial utilizan 
cámaras y algoritmos de procesamiento de imágenes para detectar 
objetos en la superficie de la pista. Estos sistemas pueden ser muy 
precisos, pero a menudo requieren una gran cantidad de procesamiento 
de datos. Este trabajo se centra en el uso de esta tecnología. 
 
• Sistemas de detección acústica: Los sistemas de detección acústica 
utilizan micrófonos para detectar la presencia de objetos en la superficie 
de la pista. Estos sistemas pueden ser útiles para detectar objetos que no 
son visibles en las cámaras o en el radar, como piezas pequeñas de metal 
o plástico. 
 
• Sistemas de detección de vibraciones: Los sistemas de detección de 
vibraciones utilizan sensores para detectar las vibraciones causadas por 
la presencia de objetos en la superficie de la pista. Al igual que los 
sistemas de detección acústica, estos sistemas pueden ser útiles para 
detectar objetos que no son visibles en las cámaras o en el radar. 
 
El contexto de uso de la detección de anomalías propuesta en este trabajo se 
centra en la implementación de un sistema de vigilancia basado en drones para 
la inspección de pistas de aeropuertos. Este sistema utilizará drones equipados 
con cámaras para realizar un barrido de las pistas, capturando imágenes de 
estas mismas. Estas imágenes serán enviadas a un servidor, donde se llevará a 
Estado del arte 7 
cabo el análisis utilizando el modelo desarrollado en este estudio para detectar 
la presencia de objetos extraños o anomalías en las imágenes. 
 
La implementación de un sistema de vigilancia basado en drones para la 
detección de anomalías en las pistas de aeropuertos ofrece ventajas 
significativas en términos de cobertura, eficiencia y flexibilidad. Los drones 
pueden proporcionar una vista aérea detallada de las pistas, permitiendo una 
inspección exhaustiva y precisa de áreas extensas. Además, la capacidad de un 
despliegue rápido y la movilidad de los drones los convierten en una herramienta 
ideal para realizar inspecciones regulares y monitorear continuamente las 
condiciones de las pistas. Esto permite una detección temprana de objetos 
extraños o anomalías, lo que a su vez contribuye a mejorar la seguridad y 
minimizar el riesgo de incidentes en los aeropuertos. Al combinar la tecnología 
de drones con el análisis de imágenes y la detección de anomalías 
proporcionada por el modelo desarrollado en este estudio, se establece una 
solución integrada y eficaz para la supervisión de las pistas de aterrizaje y la 
detección oportuna de cualquier objeto o situación inusual. 
 
 
1.3. Métodos de detección de anomalías en la literatura 
 
En la literatura especializada, se han propuesto diversos métodos para abordar 
el desafío de la detección de anomalías en diferentes dominios de aplicación. 
Estos métodos se clasifican según diferentes criterios, lo que nos permite tener 
una visión general de las distintas aproximaciones existentes. Algunos de los 
criterios comunes utilizados para clasificar los métodos de detección de 
anomalías incluyen: 
 
• Basados en modelos: Estos métodos construyen un modelo estadístico o 
probabilístico que representa la distribución de los datos normales. Luego, 
utilizan este modelo para determinar si una instancia de datos es una 
anomalía o no. Algunos ejemplos de métodos basados en modelos son el 
modelo de mezcla de Gaussianas, el modelo de Markov oculto y los 
métodos basados en árboles de decisión. 
 
• Basados en distancia: Estos métodos cuantifican la similitud o la distancia 
entre una instancia de datos y las muestras normales. Si la distancia es 
considerablemente mayor que el promedio, se considera que la instancia 
es una anomalía. Ejemplos de métodos basados en distancia son el 
método de los k vecinos más cercanos (k-NN) y el método de distancia 
media al vecino más cercano (k-means). 
 
• Basados en densidad: Estos métodos modelan la densidad de los datos 
normales y consideran instancias de baja densidad como anomalías. 
Estos métodos pueden utilizar estimaciones de densidad, como el 
estimador de densidad de Parzen o el algoritmo de vecinos de densidad 
(DBSCAN). 
 
8 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
Dentro de un criterio basado en modelos existen enfoques interesantes para la 
detección de anomalías, como los basados en minería de reglas de asociación, 
redes neuronales autoencoder y otros métodos basados en aprendizaje no 
supervisado. 
 
En este contexto, los modelos de Deep Learning han ganado popularidad en la 
detección de anomalías debido a su capacidad para aprender representaciones 
complejas y no lineales de los datos. Algunos de estos modelos, como PADIM 
(Probabilistic Anomaly Detection for Images) o PatchCore, se han utilizado con 
éxito en la detección de anomalías en procesos industriales. Se presenta el 
rendimiento de los modelos entrenados en el capítulo 3, en el apartado 3.2. 
 
 
1.4. Evaluación de algoritmos de detección de anomalías 
 
En el contexto de la detección de imágenes anómalas mediante el Deep 
Learning, es fundamental contar con métricas adecuadas para evaluar el 
rendimiento de los modelos. Las métricas usadas para evaluar el rendimiento de 
los modelos son las tres siguientes:image_AUROC, throughput y el 
image_F1score. 
 
• image_AUROC: esta métrica se basa en la curva ROC (Receiver 
Operating Characteristic). Esta curva representa la relación entre la tasa 
de verdaderos positivos (sensibilidad) y la tasa de falsos positivos (1 - 
especificidad) a medida que se varía el umbral de clasificación del modelo. 
El área bajo la curva ROC (AUROC, Area Under ROC) proporciona una 
medida del rendimiento global del modelo para discriminar entre 
imágenes normales y anómalas. Un valor de image_AUROC cercano a 1 
indica una alta capacidad de discriminación, es decir, el modelo es capaz 
de clasificar correctamente las imágenes normales y anómalas en la 
mayoría de los casos. Por otro lado, un valor cercano a 0.5 indica un 
rendimiento similar al azar, lo que implica que el modelo no tiene 
capacidad para distinguir entre las clases. Por lo tanto, la métrica 
image_AUROC proporciona una evaluación cuantitativa de la capacidad 
discriminativa del modelo y su capacidad para identificar correctamente 
tanto las imágenes normales como las anómalas. 
 
• Throughput: El throughput es una métrica que evalúa la eficiencia 
computacional del modelo en la detección de imágenes anómalas. Se 
refiere a la cantidad de imágenes que el modelo puede procesar en un 
determinado período de tiempo. En aplicaciones en tiempo real, es 
fundamental que el modelo pueda realizar la detección de anomalías de 
manera rápida y eficiente. Un alto valor de throughput indica que el 
modelo es capaz de procesar una gran cantidad de imágenes en un corto 
período de tiempo, lo que es crucial para escenarios donde se requiere 
una respuesta en tiempo real. Evaluando el rendimiento del modelo en 
términos de throughput, se puede determinar si el modelo es adecuado 
para aplicaciones prácticas que implican un procesamiento rápido de 
grandes volúmenes de imágenes. 
Estado del arte 9 
 
 
• Image_F1score: El image_F1score es una medida que combina la 
precisión y el recall (fórmula 1.1). La precisión se refiere a la proporción 
de imágenes anómalas clasificadas correctamente sobre el total de 
imágenes clasificadas como anómalas, mientras que el recall se refiere a 
la proporción de imágenes anómalas clasificadas correctamente sobre el 
total de imágenes anómalas reales. El image_F1score proporciona una 
evaluación más completa del rendimiento del modelo, considerando tanto 
la capacidad de clasificación correcta de las anomalías como la 
minimización de los falsos positivos. Así como el image_AUROC indica la 
capacidad para identificar correctamente imágenes tanto normales como 
anómalas, el image_F1score indica la capacidad para identificar 
correctamente imágenes anómalas. 
 
 
𝐹1 𝑠𝑐𝑜𝑟𝑒 = 
2·𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛·𝑟𝑒𝑐𝑎𝑙𝑙
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛+𝑟𝑒𝑐𝑎𝑙𝑙
 (1.1) 
 
 
Es importante destacar la importancia del image_AUROC y del image_F1score, 
ya que al analizar ambas métricas en conjunto se obtiene un análisis descriptivo 
más completo del modelo. Para una mejor comprensión de estas dos métricas, 
se puede utilizar un ejemplo sencillo. En primer lugar, se considera importante 
analizar el image_F1score, ya que indica la capacidad para detectar anomalías. 
Si un modelo tuviese un image_F1score de 0.98, podría parecer que tiene un 
rendimiento óptimo. Sin embargo, al analizar el image_AUROC de ese mismo 
modelo, se obtendría un valor de 0.5, lo que indica que solo se estaría 
clasificando correctamente la mitad de los datos. Al analizar ambas métricas, se 
llega a la conclusión de que todos los datos están siendo clasificados como 
anómalos por el modelo hipotético. 
 
Estas métricas descritas se utilizan en la evaluación de modelos de detección de 
imágenes anómalas debido a su capacidad para proporcionar una evaluación 
cuantitativa y completa del rendimiento del modelo en términos de 
discriminación, equilibrio entre precisión y recall, y eficiencia computacional. 
Permiten medir la capacidad de clasificación correcta de cualquier imagen, la 
capacidad de detección de anomalías y la velocidad de procesamiento del 
modelo, lo que resulta fundamental para tomar decisiones informadas sobre su 
desempeño y su idoneidad para aplicaciones específicas. 
10 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
CAPÍTULO 2. CONJUNTO DE DATOS 
 
 
2.1. Conjunto de datos FOD-A 
 
Como ya se ha mencionado, el conjunto de datos usado es el denominado FOD-
A, presentado en el FOD-A: A Dataset for Foreign Object Debris in Airports 
(véase [1]). Se trata de una colección de imágenes recopiladas específicamente 
para el desarrollo y evaluación de los modelos de detección de anomalías en las 
pistas de aeropuertos, con el objetivo de proporcionar datos representativos y 
desafiantes que reflejen escenarios reales de detección de objetos extraños en 
las pistas de aterrizaje. 
 
El conjunto de datos FOD-A consta de alrededor de 34.000 imágenes tomadas 
por cámaras o extraídas de vídeos realizados mediante vehículos aéreos no 
tripulados. Estas imágenes abarcan diferentes condiciones de iluminación, 
ángulos de visión y situaciones operativas para capturar una amplia gama de 
posibles anomalías presentes en las pistas de aterrizaje. Además de las 
imágenes, el conjunto de datos FOD-A también proporciona información 
adicional, como etiquetas de anotación que indican la presencia de objetos 
extraños en cada imagen y la ubicación de estos mimos. 
 
A continuación, en las figuras 2.1 y 2.2 se puede observar una imagen de 
ejemplo y su archivo .xml correspondiente. 
 
 
 
 
Fig. 2.1 Imagen (000122.jpg) perteneciente al conjunto de datos FOD-A. 
 
Conjunto de datos 11 
 
 
Fig. 2.2 Archivo (000122.xml) de anotación, correspondiente a la imagen 
000122.jpg, perteneciente al conjunto de datos FOD-A. 
 
La diversidad y cantidad de imágenes presentes en el conjunto de datos FOD-A 
permiten un entrenamiento más completo y una evaluación exhaustiva de los 
modelos de detección de anomalías. Al utilizar este conjunto de datos, se tiene 
la oportunidad de aprovechar una amplia variedad de escenarios y situaciones 
reales que se encuentran comúnmente en los aeropuertos, mejorando así la 
capacidad de los modelos para detectar con precisión y eficacia objetos extraños 
12 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
en las pistas de aeropuertos. Sin embargo, es importante tener en cuenta que el 
amplio número de imágenes en el conjunto de datos FOD-A también puede 
presentar ciertos desafíos en términos de tiempo y recursos computacionales 
necesarios para entrenar y evaluar los modelos de detección de anomalías. 
Dado que el conjunto de datos consta de alrededor de 34.000 imágenes, los 
procesos de entrenamiento y evaluación pueden volverse largos y costosos 
computacionalmente. 
 
Para que el desarrollo de estos procesos de entrenamiento y evaluación fueran 
asequibles, se han llevado a cabo las siguientes transformaciones de los datos 
originales: 
 
• Generación de conjuntos de datos más reducidos (subdatasets) en base 
al conjunto de datos original. 
• Generación de imágenes normales en base a las anómalas. 
 
En el siguiente apartado (2.2) se detallan y justifican estas transformaciones 
llevadas a cabo. 
 
El entrenamiento de modelos en conjuntos de datos tan grandes requiere una 
capacidad de procesamiento considerable y puede llevar tiempos de 
entrenamientos elevados, especialmente si se utilizan algoritmos de Deep 
Learning o redes neuronales convolucionales que necesitan procesar cada 
imagen individualmente. Además, la evaluación exhaustiva y la 
hiperparametrización de los modelos utilizando el conjunto de datos FOD-A 
también puede llevar tiempos elevados y requerir recursos computacionales 
significativos para procesar todas las imágenes y generar resultados precisos. 
Es importante considerar estos factores al planificar y realizar pruebas o 
experimentosutilizando el conjunto de datos FOD-A. Se requiere una 
infraestructura computacional adecuada, que incluya recursos de procesamiento 
y almacenamiento suficientes, para garantizar que los procesos de 
entrenamiento y evaluación sean eficientes y efectivos. Además, es 
recomendable utilizar técnicas de optimización y paralelización para acelerar los 
tiempos de entrenamiento y evaluación, así como implementar estrategias de 
muestreo o particionamiento del conjunto de datos para reducir el tiempo y los 
recursos necesarios en casos donde sea factible. Es por ello por lo que se han 
realizado transformaciones del conjunto de datos original y se ha utilizado una 
herramienta que libera de la preocupación de proveer de un hardware 
suficientemente potente para llevar a cabo estos procesos. La herramienta 
utilizada ha sido Google Colab. 
 
Google Colab es una plataforma en línea que permite ejecutar código Python en 
la nube utilizando CPU’s, GPU’s y TPU’s de forma gratuita. En el apartado 3.3 
se explica con más detalles en que consiste Google Colab. 
 
El conjunto del uso de Google Colab y una versión reducida del conjunto de datos 
FOD-A son estrategias viables para abordar los desafíos asociados al elevado 
número de imágenes y los recursos computacionales requeridos. 
 
 
Conjunto de datos 13 
2.2. Transformaciones de los datos del conjunto de datos 
 
Como se ha mencionado anteriormente, se han llevado a cabo las siguientes 
transformaciones de las imágenes del conjunto de datos original: 
 
• Se han creado conjuntos de datos más pequeños (subdatasets), 
compuestos por 100 imágenes cada uno, con el objetivo de facilitar los 
entrenamientos. La reducción del tamaño del conjunto de datos permitió 
un enfoque más manejable durante el proceso de entrenamiento, al 
disminuir la carga computacional. Estos conjuntos de datos más 
pequeños se seleccionaron de manera aleatoria y sin repetición a partir 
del conjunto de datos original para garantizar la diversidad y la 
representatividad de las imágenes. Esto evitó cualquier sesgo o 
preferencia al elegir las muestras y aseguró una distribución equilibrada 
de las imágenes anómalas y normales en los conjuntos de datos. 
 
• Para generar imágenes sin anomalías (imágenes normales) y equilibrar 
las clases en el conjunto de datos, se utilizó un filtro de relleno de la 
biblioteca OpenCV. Este filtro permitió eliminar o reparar las anomalías 
presentes en algunas de las imágenes originales, creando así un conjunto 
de imágenes normales. Al incluir imágenes normales en el conjunto de 
datos, se proporcionó al modelo un contexto apropiado para aprender y 
distinguir las características distintivas de las anomalías en comparación 
con las imágenes sin anomalías. 
 
En las figuras 2.3 y 2.4 se puede observar una imagen del conjunto de datos 
original incluida en los subdatasets y la generación de su imagen sin anomalía 
correspondiente. 
 
 
 
Fig. 2.3 Imagen (002437.jpg) perteneciente al conjunto de datos FOD-A 
incluida en uno de los subdatasets. 
 
14 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
 
 
Fig. 2.4 Imagen generada sin anomalía correspondiente a la imagen 
002437.jpg incluida en uno de los subdatasets. 
 
Como se puede apreciar en las figuras 2.3 y 2.4, se ha logrado llevar a cabo 
satisfactoriamente la generación de imágenes sin anomalías en la mayoría de 
los casos. No obstante, en las figuras 2.5 y 2.6 se observa que, en algunos casos 
específicos, el proceso de eliminación de la anomalía no ha resultado 
completamente efectivo. 
 
 
 
Fig. 2.5 Imagen (004265.jpg) perteneciente al conjunto de datos FOD-A 
incluida en uno de los subdatasets. 
 
 
 
Conjunto de datos 15 
 
 
Fig. 2.6 Imagen generada sin anomalía correspondiente a la imagen 
004265.jpg incluida en uno de los subdatasets. 
 
Si bien es cierto que en la figura 2.6 se puede apreciar claramente que la 
anomalía no ha sido eliminada de manera correcta en la imagen, para el 
desarrollo y funcionamiento de los modelos esto no resulta crítico, ya que el 
objetivo principal es generar un conjunto de datos sin anomalías para poder 
distinguirlas y detectarlas posteriormente. 
 
Es importante destacar que, al trabajar con una versión reducida del conjunto de 
datos, se debe tener en cuenta la posible pérdida de representatividad y 
diversidad de escenarios. Sin embargo, esta estrategia puede resultar útil en las 
etapas iniciales de desarrollo y ajuste de modelos, así como para realizar 
experimentos preliminares. Una vez que se han explorado y ajustado los 
modelos con la versión reducida, se puede utilizar el conjunto de datos completo 
de FOD-A para realizar evaluaciones más exhaustivas y finales. 
 
Estas transformaciones en el conjunto de datos, incluyendo la reducción del 
tamaño del conjunto de datos, la selección aleatoria de muestras y la generación 
de imágenes normales mediante filtrado, fueron realizadas con el objetivo de 
mejorar el proceso de entrenamiento de los modelos de detección de anomalías. 
Al crear conjuntos de datos más manejables y equilibrados, se consiguió realizar 
entrenamientos asequibles que pudieran llevarse a cabo en tiempos manejables, 
como entrenamientos de alrededor de dos horas de duración. Además, aparte 
de poder realizar entrenamientos más cortos para poder realizar más iteraciones, 
se pudo aprovechar al máximo la herramienta utilizada para el desarrollo y 
entrenamiento de los modelos: Google Colab. 
 
 
 
16 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
2.3. Entorno de desarrollo 
 
La principal herramienta para llevar a cabo el desarrollo y el entrenamiento de 
los modelos ha sido Google Colab. 
 
Google Colab, abreviatura de Google Colaboratory, es una plataforma en línea 
gratuita que proporciona un entorno de desarrollo interactivo basado en la nube 
para ejecutar código de Python. Diseñado y lanzado por Google, Colab se ha 
convertido en una herramienta popular y ampliamente utilizada en la comunidad 
del Data Science, Deep Learning y desarrollo de software. 
 
Al acceder a Google Colab, los usuarios pueden crear y ejecutar notebooks de 
Jupyter, que son documentos interactivos que combinan código, texto 
enriquecido y visualizaciones. Estos notebooks se almacenan en Google Drive, 
lo que facilita la colaboración y el acceso desde cualquier dispositivo. Además, 
Colab ofrece recursos computacionales gratuitos, incluyendo CPU’s, GPU’s y 
TPU’s, que permiten acelerar el entrenamiento y la inferencia de modelos de 
aprendizaje automático. 
 
Ventajas de usar Colab: 
 
• Acceso gratuito y basado en la nube: Colab proporciona acceso gratuito 
a un entorno de desarrollo basado en la nube. No es necesario configurar 
o mantener una infraestructura local, lo que lo hace especialmente 
conveniente cuando no se tiene acceso a máquinas potentes o cuando se 
desea evitar las complicaciones de la configuración del entorno. 
 
• Recursos de hardware acelerados: Colab ofrece recursos 
computacionales gratuitos, como CPU’s, GPU’s y TPU’s, que permiten 
acelerar el entrenamiento de modelos de aprendizaje automático. Estos 
recursos permiten realizar cálculos intensivos de manera más rápida y 
eficiente, lo que es especialmente beneficioso para proyectos de Deep 
Learning y análisis de datos a gran escala. 
 
• Integración con servicios de Google: Colab está integrado con otros 
servicios de Google, como Google Drive, lo que facilita la carga y el 
almacenamiento de datos. También se puede acceder a bibliotecas 
populares de Python, como TensorFlow, PyTorch y Keras lo que permite 
utilizar herramientas y frameworks ampliamente utilizados en el campo 
del Deep Learning. 
 
• Compartir y colaborar fácilmente: Los notebooks de Colab se almacenan 
en Google Drive, lo que permite compartir y colaborar de manera sencilla 
con otros usuarios. Esto es especialmente útil para proyectos de equipo y 
pararecibir comentarios y aportes de colegas o colaboradores externos. 
 
A pesar de ser una herramienta gratuita y potente, Colab presenta limitaciones 
importantes: 
 
Conjunto de datos 17 
• Limitaciones de recursos: Aunque Colab ofrece recursos 
computacionales gratuitos, existen ciertas limitaciones en cuanto a la 
cantidad de tiempo de ejecución y el acceso a recursos de alto 
rendimiento. Los recursos como CPU’s, GPU’s y TPU’s se asignan de 
manera compartida, por lo que puede haber limitaciones en la 
disponibilidad y el tiempo de uso. 
 
• Persistencia de sesiones limitada: Las sesiones de Colab se pueden 
desconectar después de un período de inactividad prolongado, lo que 
puede resultar en la pérdida de datos y el reinicio del entorno de ejecución. 
Aunque los notebooks se guardan automáticamente en Google Drive, es 
importante tener en cuenta esta limitación y guardar el progreso con 
regularidad. 
 
• Restricciones de almacenamiento y tamaño de archivo: Colab tiene 
restricciones en el almacenamiento y el tamaño de archivo permitido. Esto 
puede limitar la capacidad de trabajar con conjuntos de datos grandes o 
proyectos que requieren un espacio de almacenamiento considerable. 
 
• Variabilidad en la asignación de recursos: En Colab, la asignación de 
recursos, como la cantidad de RAM, o el procesador asignado (CPU, GPU 
o TPU), puede diferir en función de la demanda y la disponibilidad en un 
momento dado. Esto significa que, en una sesión específica, es posible 
que se cuente con una cantidad significativa de recursos 
computacionales, lo que puede acelerar los cálculos y mejorar el 
rendimiento del modelo entrenado en esa sesión. Sin embargo, en otras 
sesiones, es posible que los recursos estén más limitados o incluso no 
estén disponibles en absoluto. Esta variabilidad en la asignación de 
recursos puede afectar el rendimiento y la consistencia en diferentes 
sesiones de uso de Colab. 
 
En resumen, Colab ofrece acceso a recursos computacionales acelerados, 
integración con servicios de Google y facilidad para compartir y colaborar en 
proyectos. Sin embargo, también tiene limitaciones en términos de recursos 
disponibles y restricciones de almacenamiento. 
 
Se han considerado estas ventajas y limitaciones y se ha optado por el uso de 
Colab como plataforma de desarrollo y ejecución para este trabajo. En la figura 
2.7 se puede observar una captura de ejemplo de uno de los notebooks usados 
en este trabajo en Colab. 
 
18 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
 
Fig. 2.7 Captura del notebook de Google Colab usado para generar un 
subdataset de 100 imágenes aleatorias.
Desarrollo y entrenamiento de modelos 19 
CAPÍTULO 3. DESARROLLO Y ENTRENAMIENTO DE 
MODELOS 
 
 
El capítulo 3 se estructura en dos apartados. En el apartado 3.1, apartado 
principal donde se detalla el proceso de desarrollo para la creación de un modelo 
de detección de anomalías desde cero, se proporciona una explicación 
exhaustiva de los pasos seguidos y las metodologías empleadas en la 
construcción de este modelo específico, diseñado para abordar el tema principal 
de este trabajo. Por otro lado, en el apartado 3.2 se presenta el rendimiento de 
los modelos más avanzados y vanguardistas en el campo de la detección de 
anomalías. Estos modelos han sido previamente entrenados y adaptados para 
abordar la temática específica tratada en este estudio. 
 
 
3.1. Modelo desarrollado 
 
A la hora de desarrollar el modelo propuesto se ha optado por seguir la 
arquitectura de un autoencoder. Su arquitectura está diseñada para realizar 
tareas de codificación y decodificación de datos, y se basa en el concepto de 
compresión y reconstrucción de información. Es decir, su principal 
funcionamiento se basa en comprimir los datos de entrada (una imagen para el 
contexto que abarca este trabajo) y después, descomprimir el resultado para 
volver a obtener los datos de entrada, iguales idealmente. 
 
 
 
 
Fig. 3.1 Esquema representativo de la arquitectura de un autoencoder. (Véase 
[16]). 
 
Como se ve en la figura 3.1, los autoencoders constan de tres componentes 
principales: el codificador (encoder), la representación del mínimo latente y el 
decodificador (decoder). Cada componente desempeña un papel clave en el 
proceso de aprendizaje y reconstrucción de los datos de entrada. 
 
20 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
El encoder es la parte de la red neuronal responsable de la compresión de los 
datos de entrada en una representación de menor dimensionalidad. También se 
conoce como la etapa de codificación del autoencoder. Consta de varias capas 
neuronales que procesan y transforman los datos de entrada a medida que se 
propagan a través de la red. Cada capa en el encoder extrae características y 
patrones relevantes de los datos y los combina en una representación latente de 
menor dimensión. A medida que los datos fluyen a través de las capas del 
encoder, la dimensionalidad de la representación se reduce progresivamente. 
Esto se logra mediante el uso de técnicas como la convolución, el muestreo y la 
reducción de dimensionalidad, como el pooling o las capas de agrupamiento. 
Cada capa del encoder realiza operaciones matemáticas y aplicaciones de 
funciones de activación no lineales para transformar los datos y capturar las 
características más importantes. El objetivo del encoder es aprender a generar 
una representación compacta y significativa de los datos de entrada que 
conserve la información relevante para la reconstrucción posterior. La 
representación latente generada por el encoder debe ser capaz de capturar las 
características distintivas y esenciales de los datos de entrada. La elección de la 
arquitectura y el número de capas en el encoder depende de la complejidad del 
problema y los datos específicos con los que se está trabajando, como la 
dimensión de la imagen. Es común utilizar arquitecturas como las redes 
neuronales convolucionales (CNN) o las redes neuronales recurrentes (RNN), 
para permitir la extracción de características más ricas y complejas. 
 
 
Fig. 3.2 Funcionamiento del encoder de un autoencoder con una muestra del 
conjunto de datos MNIST. (Véase [17]). 
 
En la figura 3.2 se puede observar un ejemplo ilustrativo de una imagen original 
de entrada y el resultado proporcionado por el encoder. En el resultado obtenido, 
el código latente, se puede observar la reducción de dimensionalidad y la 
permanencia de la características e información principales de la imagen original. 
 
Como se ha explicado a través del ejemplo de la figura 3.2, la representación 
latente en un autoencoder es el componente intermedio entre el encoder y el 
decoder. También conocida como el código o mínimo latente, contiene una 
representación de menor dimensionalidad que captura las características más 
relevantes y distintivas de los datos de entrada. Al pasar por el encoder, los datos 
de entrada se transforman y comprimen en el código de representación latente. 
La dimensionalidad reducida del código latente permite una representación más 
eficiente y compacta de los datos, lo que a su vez facilita la reconstrucción 
Desarrollo y entrenamiento de modelos 21 
precisa en el paso del decoder. El código latente tiene una dimensión menor en 
comparación con los datos de entrada originales. Esta reducción de 
dimensionalidad puede tener varias ventajas. En primer lugar, ayuda a eliminar 
el ruido y las características irrelevantes de los datos, ya que solo se retienen las 
características más significativas. Además, el código latente puede ayudar a 
detectar patrones y estructuras subyacentes en los datos que son difíciles de 
capturar en su forma original. Es importante tener en cuenta que la interpretación 
del código latente puede ser difícil debido a la pérdida de información durante la 
compresión. Sin embargo, en aplicacionescomo la generación de datos, el 
código latente se puede utilizar para generar nuevas muestras que comparten 
características similares a las del conjunto de datos original. 
 
El decoder es la parte de la red neuronal encargada de reconstruir los datos de 
entrada a partir del código latente generado por el encoder. Su función principal 
es invertir la compresión realizada por el encoder y generar una salida que sea 
lo más cercana posible a los datos originales. Consta de una serie de capas 
neuronales convolucionales que trabajan en sentido inverso al encoder. Estas 
capas se encargan de descomprimir y expandir el código latente para reconstruir 
los datos de entrada originales. Cada capa del decoder transforma el código 
latente en una forma que se asemeje cada vez más a los datos de entrada 
originales. A medida que los datos fluyen a través de las capas del decoder, la 
dimensionalidad de la representación aumenta gradualmente. Esto se logra 
mediante operaciones de muestreo inverso y aumento de dimensionalidad, como 
las capas de interpolación o de transposición. Cada capa del decoder realiza 
transformaciones y aplicaciones de funciones de activación no lineales para 
reconstruir los datos y mejorar la calidad de la salida. El objetivo del decoder es 
generar una salida que se asemeje lo máximo posible a los datos de entrada 
originales. La elección de la arquitectura y el número de capas en el decoder 
depende de la complejidad del problema y los datos específicos que se están 
trabajando. La estructura del decoder suele reflejar la estructura inversa del 
encoder, permitiendo una reconstrucción simétrica. 
 
 
 
Fig. 3.3 Funcionamiento del decoder de un autoencoder con una muestra del 
conjunto de datos MNIST. (Véase [17]). 
 
Durante el proceso de entrenamiento, los autoencoders buscan minimizar la 
diferencia entre los datos de entrada originales y los datos reconstruidos. Se 
utiliza una función de pérdida, como el error cuadrático medio (MSE), para 
22 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
calcular la discrepancia entre los datos originales y los datos reconstruidos. Al 
optimizar esta función de pérdida, el autoencoder ajusta los pesos y los sesgos 
de las capas del codificador y el decodificador para mejorar la calidad de la 
reconstrucción. El MSE es el indicador de la calidad de la reconstrucción (fórmula 
3.1.), dónde n es el número de filas de la imagen, m el número de columnas de 
la imagen, 𝐼1(𝑖, 𝑗) el valor del píxel de la imagen 1 (imagen de entrada) en la 
posición (i,j) e 𝐼2(𝑖, 𝑗) el valor del píxel de la imagen 2 (imagen de salida) en la 
posición (i,j). 
 
 
 𝑀𝑆𝐸 = 
1
𝑛·𝑚
· ∑[(𝐼1(𝑖, 𝑗) − 𝐼2(𝑖, 𝑗))2] (3.1) 
 
 
En resumen, la arquitectura de los autoencoders está compuesta por un 
codificador que comprime los datos de entrada en un código latente, un código 
latente que captura las características más importantes de los datos y un 
decodificador que reconstruye los datos de entrada a partir del código latente. Al 
entrenar los autoencoders, se busca minimizar la pérdida entre los datos 
originales y los datos reconstruidos. En la figura 3.4 se puede observar un 
esquema con un ejemplo del conjunto de datos MNIST de todo el proceso que 
lleva a cabo un autoencoder. 
 
 
 
 
Fig. 3.4 Funcionamiento de un autoencoder con una muestra del conjunto de 
datos MNIST. (Véase [17]). 
 
Una de las aplicaciones más comunes de los autoencoders es la compresión de 
datos, donde se utilizan para comprimir y descomprimir información sin pérdida. 
Además de la compresión de datos, los autoencoders también se utilizan en 
tareas como la detección de anomalías, la eliminación de ruido en imágenes y la 
generación de datos sintéticos. 
 
 
 
 
 
 
Desarrollo y entrenamiento de modelos 23 
En la figura 3.5 se puede observar una interesante aplicación de los 
autoencoders, la generación de imágenes con características cruzadas. 
 
 
 
 
Fig. 3.5 Ejemplo del funcionamiento de un autoencoder para generación de 
imágenes nuevas (variational autoencoder). (Véase [18]). 
 
Este enfoque combina las capacidades de los autoencoders con la capacidad de 
manipular y combinar características específicas de diferentes imágenes para 
generar nuevas imágenes que contengan una mezcla única de características. 
En otras palabras, el modelo aprende a extraer y representar características 
distintivas de distintas imágenes y luego las combina para crear imágenes 
completamente nuevas y originales. Esta capacidad de los autoencoders para 
generar imágenes con características cruzadas se basa en su capacidad para 
aprender y representar de manera eficiente las relaciones entre las 
características de las imágenes de entrenamiento. A medida que el modelo se 
entrena con un conjunto diverso de imágenes, va desarrollando una 
comprensión profunda de las características que las definen y aprende a 
sintetizar nuevas combinaciones que capturan la esencia de diferentes 
imágenes. 
 
Otra aplicación interesante de los autoencoders es su capacidad para eliminar el 
ruido en imágenes. Al reducir la imagen de entrada al código latente, solo se 
conservan las características más relevantes y representativas. Como resultado, 
al reconstruir la imagen, el ruido presente en la imagen original no se tendrá en 
24 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
cuenta. Esto se ilustra en la figura 3.6, donde se muestra un ejemplo de este 
proceso de eliminación de ruido en una imagen. 
 
 
 
 
Fig. 3.6 Ejemplo del funcionamiento de un autoencoder para la eliminación del 
ruido en una muestra del conjunto de datos MNIST. (Véase [19]). 
 
Además, como se ha mencionado anteriormente, los autoencoders desempeñan 
un papel fundamental en diversas aplicaciones, entre las cuales se destaca su 
utilidad en la detección de anomalías. Ahora bien, es importante comprender 
cómo se adapta esta arquitectura específicamente a la detección de anomalías 
en imágenes. 
 
El proceso de funcionamiento es el siguiente: en la etapa de entrenamiento, el 
modelo se expone a imágenes consideradas normales, con el objetivo de que el 
autoencoder aprenda a comprimirlas y descomprimirlas sin la presencia de 
anomalías, es decir, su capacidad de reconstruir imágenes normales se 
optimiza. Una vez que el modelo ha adquirido la habilidad de reconstruir 
imágenes normales de manera efectiva, se procede a ponerlo a prueba mediante 
la introducción de imágenes normales y aquellas que contienen anomalías. En 
este escenario, el autoencoder se encontrará con dificultades al intentar 
reconstruir las imágenes que poseen anomalías, ya que no ha sido entrenado 
para comprimir y descomprimir correctamente las características inusuales 
presentes en dichas imágenes. Como resultado, la reconstrucción generada de 
una imagen anómala contendrá errores significativos en comparación con la 
versión original. Es precisamente en estos errores de reconstrucción donde 
radica la clave del proceso. Dependiendo del grado de error que el modelo 
cometa al reconstruir una imagen, se puede determinar si esta presenta 
anomalías o no. Esta medida de error de reconstrucción se convierte en un 
indicador para identificar y clasificar las imágenes anómalas. 
 
 
 
 
 
 
 
 
 
 
 
Desarrollo y entrenamiento de modelos 25 
En este trabajo el tamaño y la configuración del autoencoder usado se presentan 
en la figura 3.7. 
 
 
 
 
Fig.3.7 Arquitectura del autoencoder usado. 
 
Se pueden observar dos características principales: 
 
• El número de filtros usados en las capas convolucionales al reducir y 
aumentar la dimensión de las imágenes es reducido en comparación con 
otros modelos. Esto se debe principalmente a que un mayor número de 
filtros implica un modelo más complejo que requerirá de más tiempo de 
entrenamiento y presentará un mayor tiempo de inferencia, es decir, alusar un número de filtros más reducido la minimización u optimización del 
MSE se lleva a cabo de forma más rápida ya que hay que ajustar menos 
parámetros. 
 
26 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
• La configuración del autoencoder está muy influenciada por las 
características de los datos de entrada, es decir, teniendo una imagen de 
entrada de 300x300, la compresión que se le puede llegar a hacer a estos 
datos es limitada. Teniendo en cuenta que el tamaño óptimo del núcleo 
se ha definido en 5x5x5 de forma experimental y que en las operaciones 
de reducción (pooling) y de aumento (upsampling) se usan filtros 2D, la 
configuración queda casi definida ya. 
 
Los datos de entrada son imágenes de 300x300 a color, es decir, tres matrices 
de 300x300 superpuestas, el tensor representativo de la imagen queda de la 
siguiente forma: (300, 300, 3). También se puede observar el tamaño del núcleo 
resultante: (5, 5, 5). Como era de esperar, los datos de salida representan la 
imagen reconstruida con la siguiente forma: (300, 300, 3). 
 
En la figura 3.7 se puede observar un resumen de la configuración del 
autoencoder. Se puede apreciar que para todas las capas mostradas en la 
columna de Output Shape (columna que indica la forma que tendrán los datos 
de salida) la forma comienza con un None. Este parámetro es una dimensión 
extra que se añade a los tensores en librerías para entrenamiento de modelos, 
como keras en este caso, para indicar el tamaño del lote o número de muestras 
que se está procesando, es un parámetro específico usado para el 
entrenamiento en paralelo usando lotes, la forma de salida de los datos de cada 
capa queda definida por los siguientes valores de la forma. 
 
Una vez presentado el autoencoder y su adecuación al problema, cabe destacar 
que se ha llevado a cabo el desarrollo de dos propuestas usando el autoencoder 
como modelo. En los apartados 3.1.1 y 3.1.2 se ha realizado una explicación 
detallada de ambas propuestas, incluyendo una presentación de los resultados 
obtenidos en cada una de ellas. 
 
3.1.1. Propuesta basada en KDE y error de reconstrucción por imagen 
 
Esta primera propuesta se ha basado en la caracterización de otro parámetro 
más aparte del error de reconstrucción entre la imagen original, o imagen de 
entrada, y la imagen reconstruida, o imagen de salida. Se trata de la densidad 
de probabilidad del núcleo. 
 
Se ha explicado anteriormente que el código latente es una representación 
mínima compactada de la información de entrada del autoencoder. Al examinar 
el código latente mediante el KDE (Kernel Density Estimator) (Véanse [29] y 
[32]), se obtiene una representación de la densidad de probabilidad de los 
valores presentes en dicho espacio. Esta representación permite identificar 
patrones inusuales en la distribución de los valores, los cuales pueden ser 
indicativos de la presencia de anomalías en las imágenes. 
 
El KDE es una herramienta de la estadística no paramétrica que se utiliza para 
estimar la densidad de probabilidad subyacente en un conjunto de datos sin 
hacer suposiciones sobre la forma funcional de la distribución. A diferencia de 
los métodos paramétricos que asumen una distribución específica, la estadística 
Desarrollo y entrenamiento de modelos 27 
no paramétrica permite una mayor flexibilidad al modelar datos y es 
especialmente útil cuando la forma de la distribución no se conoce a priori o no 
se ajusta a ninguna distribución paramétrica existente. Esto hace que el KDE sea 
una elección adecuada para analizar la distribución de los valores en el código 
latente, ya que no impone restricciones sobre la forma de la distribución y puede 
capturar patrones complejos, no lineales y no observables a priori. El proceso de 
evaluación utilizando el KDE implica estimar la densidad de probabilidad en 
función de los valores observados en el código latente. Esto se logra mediante 
la construcción de una función de densidad de probabilidad a partir de los datos 
disponibles. La técnica del kernel se utiliza para suavizar la función de densidad, 
lo que permite detectar patrones más sutiles y variaciones anómalas en la 
distribución de los valores latentes. 
 
Entre las ventajas del enfoque no paramétrico y el uso del KDE se encuentran 
su capacidad para adaptarse a diferentes formas de distribución, su flexibilidad 
al no requerir suposiciones previas y su capacidad para detectar patrones sutiles 
y anómalos en los datos. Al proporcionar una estimación de la densidad de 
probabilidad, el KDE permite detectar irregularidades incluso en presencia de 
ruido o variaciones locales en los datos. 
 
Sin embargo, también existen algunas consideraciones para tener en cuenta. La 
principal desventaja de la estadística no paramétrica es su mayor demanda 
computacional en comparación con los métodos paramétricos, especialmente 
cuando se trabaja con grandes conjuntos de datos. El cálculo del KDE puede 
requerir recursos computacionales significativos y su implementación eficiente 
puede ser un desafío en ciertos casos. 
 
Una vez que se han definido el parámetro extra que se extraerá del autoencoder 
para evaluar una imagen y clasificarla, es importante explicar cómo se han 
implementado los umbrales en este proceso. Estos umbrales desempeñan un 
papel crucial al establecer límites que permiten determinar si una imagen se 
considera anómala o no. 
 
La implementación de los umbrales implica tomar en consideración el 
comportamiento de los errores de reconstrucción y de la densidad del código 
latente. Para descifrar el comportamiento de estos parámetros se ha realizado 
un estudio de su distribución para determinar los umbrales de manera efectiva. 
 
En las figuras 3.8 y 3.9 se puede observar la distribución de estos parámetros 
para el modelo desarrollado. 
 
 
28 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
 
 
Fig. 3.8 Distribución del error de reconstrucción de uno de los subdatsets. 
 
 
 
 
Fig. 3.9 Distribución de la densidad el código latente de uno de los subdatsets. 
 
Desarrollo y entrenamiento de modelos 29 
Es importante tener en cuenta el equilibrio entre la sensibilidad y la especificidad 
del modelo de detección de anomalías. Al definir los umbrales, surge una 
pregunta importante: ¿Deberíamos ser más restrictivos o permisivos? Esto 
implica el equilibrio entre la detección de anomalías y la minimización de los 
errores de clasificación. Si se establecen umbrales más restrictivos, es decir, se 
considera anómala cualquier imagen con errores de reconstrucción ligeramente 
mayores o con densidades del código latente ligeramente inferiores, se reducirá 
el riesgo de falsos positivos. Sin embargo, también existe el riesgo de aumentar 
los falsos negativos, es decir, no detectar algunas anomalías genuinas. Por otro 
lado, si se establecen umbrales más permisivos, se aumenta la sensibilidad para 
detectar anomalías, pero a costa de un mayor número de falsos positivos. 
 
La importancia de encontrar un equilibrio adecuado entre los falsos positivos y 
los falsos negativos radica en la criticidad de los resultados. Los falsos positivos 
pueden generar alarmas innecesarias y requerir una mayor intervención humana 
para su verificación, lo que puede generar una sobrecarga de trabajo y costos 
adicionales. Por otro lado, los falsos negativos pueden llevar a pasar por alto 
anomalías críticas y potencialmente dañinas para el sistema. Teniendo en 
cuenta que un falso negativo puede desembocar en un accidente aéreo, en este 
trabajo se ha optado por proponer umbrales restrictivos con el fin de detectar 
correctamente el mayor número posible de anomalías en las pistas de los 
aeropuertos. 
 
Para evaluar la eficacia del proceso de detección de anomalías, se usarán las 
métricas ya presentadas en el apartado 1.4 del capítulo 1. Es del todo 
recomendable poner el foco en el image_F1score,ya que combina la precisión 
y la exhaustividad. Como ya se ha explicado, el image_F1score proporciona una 
medida equilibrada entre la capacidad de detectar anomalías (exhaustividad) y 
la precisión en la clasificación. Maximizar el image_F1score implica encontrar un 
punto óptimo en el equilibrio entre los falsos positivos y los falsos negativos 
priorizando la minimización de los falsos negativos. 
 
Al analizar nuevamente las gráficas de las figuras 3.7 y 3.8, se observa que en 
el modelo desarrollado existe un solapamiento de las distribuciones 
correspondientes a ambos parámetros. Este solapamiento dificulta la definición 
precisa y efectiva de umbrales. Es importante tener en cuenta que el 
solapamiento de las distribuciones implica que el modelo presenta dificultades 
para distinguir entre imágenes normales y anómalas, ya que las características 
que definen ambas clases presentan similitudes en ciertos aspectos. Es 
necesario considerar este aspecto al evaluar la capacidad de esta propuesta 
para identificar las diferencias sutiles entre las clases de imágenes. 
Considerando estos aspectos, para la definición de los umbrales se ha optado 
por analizar los puntos de intersección de las distribuciones, como se puede 
observar en las figuras 3.10 y 3.11. 
 
 
30 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
 
 
Fig. 3.10 Distribución del error de reconstrucción de uno de los subdatsets con 
punto de intersección. 
 
 
 
 
Fig. 3.11 Distribución de la densidad el código latente de uno de los subdatsets 
con punto de intersección. 
Desarrollo y entrenamiento de modelos 31 
Al examinar la distribución del error de reconstrucción, tanto para las imágenes 
normales como para las imágenes anómalas en la figura 3.10, se ha definido el 
umbral en la coordenada x del punto de intersección indicado de ambas 
distribuciones. En este punto, las imágenes normales presentan un alto error de 
reconstrucción, mientras que las imágenes anómalas exhiben un error de 
reconstrucción medio. 
 
Por otro lado, al analizar la distribución de la densidad del código latente en la 
figura 3.11, tanto para las imágenes normales como para las imágenes 
anómalas, se ha establecido el umbral en la coordenada x del primer punto de 
intersección de ambas distribuciones. En este punto, las imágenes normales 
presentan una baja densidad en el código latente, mientras que las imágenes 
anómalas muestran una densidad media. 
 
De esta manera, si el error de reconstrucción de una imagen supera el umbral 
definido en la figura 3.10, o si la densidad del código latente estimada está por 
debajo del umbral definido en la figura 3.11, la imagen se considerará como 
anómala. 
 
Es importante destacar que, si bien se podría argumentar que para priorizar la 
detección de anomalías se podrían definir umbrales que abarquen la totalidad de 
las distribuciones anómalas en ambos parámetros, esto resultaría en la 
clasificación errónea de la mayoría de las imágenes como anómalas, lo cual 
sería ineficiente y aleatorio. 
 
Mediante el análisis de la distribución del error de reconstrucción y la densidad 
del código latente, se han establecido los umbrales para la detección de 
anomalías en el conjunto de imágenes evaluado. Los resultados obtenidos 
usando esta propuesta se presentan en la figura 3.12. 
 
 
 
 
Fig. 3.12 Desempeño del modelo desarrollado con el conjunto de datos FOD-A. 
32 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
3.1.2. Propuesta basada en el error de reconstrucción por zonas de 
imagen 
 
A raíz de los resultados obtenidos en la primera propuesta, se ha tomado la 
decisión de modificar el método de comparación de los parámetros de la imagen 
de entrada y la imagen reconstruida, centrándose específicamente en el error de 
reconstrucción. 
 
El principal problema identificado en la primera propuesta es que al utilizar un 
error de reconstrucción que agrega el error de reconstrucción de todos los 
píxeles de la imagen en uno, el error de reconstrucción de la anomalía se diluye. 
Es decir, cuando se presenta una imagen con una anomalía, el autoencoder 
experimenta dificultades para reconstruir adecuadamente dicha anomalía, pero 
no encuentra problemas al reconstruir el resto de la imagen. Por lo tanto, al 
comparar los valores de los píxeles de la imagen original con los de la imagen 
reconstruida, se observa que el error de reconstrucción total de la imagen no 
varía significativamente aun habiendo reconstruido de forma errónea la parte de 
la imagen de la anomalía. Esto se traduce en un error de reconstrucción uniforme 
tanto para imágenes normales como para imágenes anómalas, como se puede 
ver en la figura 3.10 del apartado 3.1.1. 
 
Por lo que, en esta segunda propuesta, se busca abordar este desafío y lograr 
una localización precisa de los errores de reconstrucción en las anomalías. Para 
lograr esto, se ha adoptado por una estrategia de división de las imágenes en 
zonas más pequeñas de 30x30 píxeles, considerando que las imágenes 
originales tienen un tamaño de 300x300 píxeles cada imagen se descompone 
en un total de 100 zonas. 
 
El funcionamiento de esta segunda propuesta se describe de la siguiente 
manera: el modelo utilizado es el mismo, es decir, el autoencoder se entrena con 
imágenes normales para que experimente dificultades al reconstruir las zonas 
con anomalías. En este caso, las imágenes que se desean detectar se procesan 
utilizando el modelo, lo que resulta en su reconstrucción. Sin embargo, la 
diferencia radica en la forma de medir el error de reconstrucción. En lugar de 
obtener el error de reconstrucción de toda la imagen, ahora se obtiene el error 
de reconstrucción para cada una de las 100 zonas de la imagen. 
 
Esta nueva propuesta permite obtener 100 errores de reconstrucción, asociado 
cada uno de ellos a cada una de las zonas de la imagen. De esta manera, se 
obtiene una visión más detallada y localizada de los errores de reconstrucción 
en relación con las posibles anomalías presentes. Esta aproximación nos brinda 
una mayor capacidad para identificar y distinguir de manera más precisa las 
áreas afectadas por anomalías en las imágenes reconstruidas. 
 
Al analizar los errores de reconstrucción por zona, podemos obtener información 
valiosa sobre la ubicación y la magnitud de los errores en relación con las 
anomalías. Esto nos brinda la posibilidad de realizar un análisis más exhaustivo 
y detallado de las características específicas de las anomalías presentes en las 
imágenes. Además, al contar con 100 errores de reconstrucción por imagen, se 
abre la posibilidad de aplicar técnicas de procesamiento y análisis estadístico 
Desarrollo y entrenamiento de modelos 33 
más sofisticadas para obtener una evaluación más precisa y confiable de la 
presencia y la gravedad de las anomalías. 
 
En la figura 3.13 se presenta el histograma que representa los errores de 
reconstrucción de todas las imágenes normales del subdatset utilizado para 
extraer métricas. Este histograma nos proporciona una visualización de la 
distribución de los errores de reconstrucción en todas las zonas de las imágenes 
normales. 
 
 
 
 
Fig. 3.13 Histograma de errores de reconstrucción por zonas de imágenes 
normales. 
 
De manera similar, en la figura 3.14 se muestra el histograma que representa los 
errores de reconstrucción de todas las imágenes anómalas del subdataset 
utilizado para extraer métricas. En este histograma se observan los errores de 
reconstrucción de todas las zonas de las imágenes anómalas. 
 
 
34 Algoritmos de detección de anomalías para la detección de objetos extraños (FODs) en pistas de aeropuertos 
 
 
Fig. 3.14 Histograma de errores de reconstrucción por zonas de imágenes 
anómalas. 
 
En este punto resulta interesante realizar una comparación entre las figuras 3.13 
y 3.14, y observar las diferencias entre ellas. En la figura 3.15,

Continuar navegando