Logo Studenta

Inteligência Artificial na Engenharia Acústica

¡Estudia con miles de materiales!

Vista previa del material en texto

Ejemplar 25. Julio-diciembre de 2021 1 
 
 
INTELIGENCIA ARTIFICIAL EN LA INGENIERIA ACÚSTICA PARA 
MANTENIMIENTO PREVENTIVO 
 
Manuel González Hernández 
Área Académica de Ingeniería del Instituto de Ciencias Básicas e Ingeniería de la Universidad Autónoma 
del Estado de Hidalgo, Pachuca Hidalgo, México 
 mghdez@uaeh.edu.mx 
 
Maximino Peña Guerrero 
Academia de Acústica de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico 
Nacional, Zacatenco, D. F. Ciudad de México 
mpenag@ipn.mx 
 
Sergio Blas Ramírez Reyna 
Área Académica de Ingeniería del Instituto de Ciencias Básicas e Ingeniería de la Universidad Autónoma 
del Estado de Hidalgo, Pachuca Hidalgo, México 
sramirez@uaeh.edu.mx 
 
Oleksandr Karelin 
Área Académica de Ingeniería del Instituto de Ciencias Básicas e Ingeniería de la Universidad Autónoma 
del Estado de Hidalgo, Pachuca Hidalgo, México 
 karelin@uaeh.edu.mx 
 
José́ de Jesús Negrete Redondo 
Academia de Acústica de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico 
Nacional, Zacatenco, D. F. Ciudad de México 
josejnegreter@yahoo.com.mx 
 
RESUMEN 
 El propósito de este artículo es mostrar en forma somera tanto la evolución de la computación como la posibilidad 
de aprovechar las herramientas computacionales con la ayuda de la Inteligencia Artificial (IA), la cual surgió a 
mediados de los años 50's y desde entonces los investigadores en el área computacional han tratado de aplicar la AI 
a la solución de problemas específicos, como es el reconocimiento de patrones periódicos o cuasi periódicos, tanto 
de imágenes como de patrones de sonido. Una imagen originada es una matriz de pixeles dentro de una cámara de 
video que se puede ver como una secuencia de datos consecutivos, que forman un vector de números (pixeles) que 
corresponden a la forma de onda de una imagen, lo mismo ocurre con el sonido, ya sea de muy baja, media, o muy 
alta frecuencia. Cualquier sonido es una forma de onda que se puede representar como una secuencia de datos 
discretos. En este documento se presenta algunos de los métodos de reconocimiento de estos patrones con el fin de 
comprender su aplicación en el diseño de interfases Hombre-Máquina mediante técnicas de Inteligencia Artificial y 
su aplicación en el diseño y construcción de sistemas automáticos autónomos. El interés principal es mostrar la 
posibilidad de aplicar la IA en el mantenimiento preventivo. 
 
 Palabras clave: Inteligencia Artificial, Sistemas Autónomos, Mantenimiento Preventivo, TensorFlow 
 
 
 
mailto:sramirez@uaeh.edu.mx
 
 
Ejemplar 25. Julio-diciembre de 2021 2 
 
 
 
El propósito de este documento es mostrar una 
secuencia evolutiva de las computadoras y sus 
lenguajes de programación que dieron la 
posibilidad de elaborar herramientas de 
software a tal grado que en un futuro muy 
cercano se podrán apreciar máquinas cuánticas 
y como consecuencia máquinas de quinta 
generación. 
 
 La relatoría superficial que se hace sobre la 
evolución de la computación es con el fin de 
elucidar los beneficios que tendrá la ingeniería 
en general, por ejemplo, en ingeniería acústica 
proponemos una alternativa para el 
mantenimiento preventivo de equipos 
electromecánicos, basado en el ruido de sus 
componentes. 
 
 Hemos desarrollado una técnica como 
alternativa para el mantenimiento preventivo, 
utilizando el ruido de los componentes 
electromecánicos. En la mayoría de ellos se 
puede detectar y registrar el ruido como un 
indicio de que se tiene una posible falla. La 
técnica que el personal de una empresa utiliza 
con el propósito de mantener un equipo en 
condiciones y facilidades de operación dado 
que, por inspección sistemática, y corrección de 
fallas en desarrollo, antes de que ellas ocurran o 
antes de que se desarrollen en defectos mayores 
se conoce como mantenimiento preventivo. 
Este proceso de mantenimiento debe incluir 
pruebas, medidas, ajustes y reemplazo de 
partes, hacer específicamente la detención de 
fallas donde ocurran, estas reflejan el costo y 
calidad de los artículos fabricados. Por lo tanto, 
las fallas se pueden elucidar por medio del ruido 
que los componentes del equipo en operación 
generan como un indicio de la posible falla. La 
técnica que se propone consiste en capturar la 
señal de ruido con un micrófono y compararla 
con señales de una base de ruidos de los 
diferentes componentes del equipo 
electromecánico en cuestión, para lo cual se 
construyó un sistema computacional que 
registra la señal del componente del equipo en 
operación y se compara con patrones de señales 
previamente registradas en una base de datos de 
los componentes del mismo equipo cuándo éste 
es nuevo. En la literatura, no se encontró algo 
similar. Los patrones de las señales 
almacenadas en la base de datos fueron 
capturadas y analizadas quedando establecidas 
como los coeficientes de su representación 
matemática. 
 
 Hacemos énfasis en una de las ramas de la 
computación la Inteligencia Artificial (IA) y las 
nuevas tendencias de las diferentes aplicaciones 
en ingeniería, especialmente en ingeniería 
acústica, una de esas nuevas tendencias es 
TensorFlow, que nos ofrece una base de datos 
de redes neuronales que puede eslabonar varias 
de ellas para producir eventos de procesos tipo 
paralelo. Más concretamente TensorFlow es 
una biblioteca de código abierto que se basa en 
un sistema de redes neuronales. Esto 
significa que se pueden relacionar varios datos 
en red simultáneamente, de la misma 
forma que lo hacen los sistemas en paralelo. Por 
ejemplo, puede reconocer varias palabras del 
alfabeto porque relaciona las letras y fonemas. 
 
 Hoy en día casi todos los dispositivos que 
utilizamos, desde un simple aparato doméstico 
hasta un automóvil, un avión o una nave 
espacial, utiliza de manera masiva tecnologías 
de Inteligencia Artificial. Esto se debe en gran 
medida la revolución digital del siglo XXI, y a 
la cada vez más miniaturización de los 
dispositivos electrónicos. No se diga la 
evolución de los sistemas de software desde los 
primeros lenguajes FORTRAN, BASIC, LISP 
hasta los últimos como C/C++, HTML. XML 
entre muchos otros de aplicaciones específicas. 
Evidentemente dichas herramientas de software 
deben “correr” en un ambiente de sistema 
operativo moderno como UNIX, o Windows, u 
 
3 
Ejemplar 25. Julio-diciembre de 2021 
otros cada vez más sofisticados reservados casi 
siempre a la seguridad pública. 
 
Dentro de las técnicas de reconocimiento de 
patrones utilizados en la IA las principales son: 
el método no-paramétrico y el método 
paramétrico. El primero es de “fuerza bruta”, es 
un método numérico de DSP que calcula los 
parámetros 𝐴 = { 𝑎0, 𝑎1, 𝑎2, . . . , 𝑎𝑛−1, 𝑎𝑛 } 
de una forma de onda, los cuales se comparan 
con aquellos que están en una base de datos 
previamente construida. Un método 
puede ser la extracción de los valores: máximo, 
mínimo, media, energía, cruces por cero, 
Transformada de Fourier, predicción lineal 
(LPC) (Linear Prediction Code), entre otros. El 
segundo método es “más inteligente”, el cual, 
mediante un método de aprendizaje, el sistema 
calcula los parámetros que identifican un 
sonido, los cuales son almacenados dentro de la 
misma estructura de dicho sistema. No requiere 
de base de datos. Ejemplo: redes neuronales, 
cadenas de Márkov ocultas. Otra técnica 
importante de IA en el reconocimiento de 
patrones en tiempo real son las Cadenas de 
Márkov Ocultas, (HMM). Andréi Andréyevich 
Márkov (1856-1922), matemático ruso, 
investigador en la teoría de números y de 
probabilidades, desarrolló las cadenas que 
llevan su nombre. “Una cadena de Márkov es 
un modelo probabilístico utilizado para predecir 
la evolución y el comportamiento a corto y 
largo plazo de determinados sistemas”.Una 
cadena de Márkov oculta (HMM, Hidden 
Markov Model) es “Un autómata de estados 
finitos utilizado para modelar la voz una frase, 
palabra, fonema, etc.” [1],. Una HMM “... 
genera observaciones cada vez que pasa de un 
estado a otro. 
 
La Inteligencia Artificial 
 
 El término Inteligencia Artificial se utilizó 
por primera vez en una reunión en 1956, en 
Dartmouth College: John McCarty organizador, 
Claude Shanon, Marvin Minsky, Frank 
Rosenblatt psicólogo, Herbert Simon 
economista y Allen Newell psicólogo 
cognitivo. De aquí surgieron dos principales 
enfoques: El Enfoque simbólico o top-down, 
lidereada dicha reunión por Newell y Simon, 
sugirieron desarrollar sistemas capaces de 
manipular símbolos. Así, escribieron Logic 
Theorist, programa que demuestra algunos 
teoremas de lógica matemática. Sus propuestas 
dieron origen como la de Edward Albert 
Feigenbaum conocido como el padre de los 
Sistemas Expertos, lenguajes de programación 
como LISP en 1960 y Prolog en 1976. El otro 
enfoque se conoce como el enfoque 
conexionista o buttom-up, éste lidereado por 
Rossenblatt bosquejaron desarrollar sistemas 
físicos que imitaran la estructura biológica del 
cerebro donde apareciera la función cognitiva. 
Con esta lógica, Warren McCollouch y Walter 
Pitts propusieron en 1940 la primera neurona 
artificial desde el punto de vista computacional, 
mediante un algoritmo llamado Unidad Lógica 
de Umbral (Threshold Logic Unit), esto dio 
como resultado la creación del Perceptrón, 
Redes Neuronales (deep-learning), Sistemas 
Emergentes, IoT (Internet To Thinks), 
lenguajes como C/C++, VHDL. 
 
La Evolución del Hardware 
 
 Charles Babbage (1792-1871) matemático e 
ingeniero británico, inventor de las primeras 
máquinas calculadoras programables, diseño su 
máquina analítica (Analytical Engine). En 
1822 produjo un modelo funcional a escala 
llamado “Difference Engine” o máquina 
diferencial. Debido a la complejidad mecánica 
de la “Diference Engine”, hasta antes del siglo 
XXI, nunca se construyó un modelo a escala 
real, aun así, dicha máquina es el prototipo de 
las computadoras modernas. 
 
Posteriormente, Alan Mathison Turing (1912-
1954), matemático inglés, desarrolló un método 
matemático para resolver el problema de 
indecisión. Una máquina de Turing es un 
modelo matemático que puede resolver un 
problema si es que existe su solución. Una 
máquina de Turing es una quíntuple 𝑀 =
(𝑄, Σ, 𝑞0, 𝐹, 𝛿) en donde 𝑄 es un conjunto finito 
 
4 
Ejemplar 25. Julio-diciembre de 2021 
de estados, Σ es un conjunto finito de símbolos, 
𝑞0 es el estado inicial, 𝐹 es el conjunto de 
estados finales, 𝛿 es una función denominada 
función de transición, tal que 𝛿: 𝑄 × Σ → Q. 
Una máquina de Turing es el fundamento 
matemático de los sistemas computacionales 
digitales. Poco después, John von Neumann 
(1903-1957), matemático húngaro, desarrolló el 
concepto de programa almacenado para evitar 
la reprogramación alambrada de las máquinas 
digitales de aplicaciones específicas. Una 
arquitectura von Neumann es la construcción de 
una computadora digital con una CPU, ALU, 
I/O, registros, unidad de control, memoria dura 
(almacenamiento masivo), y una memoria 
operativa (memoria RAM). Una máquina von 
Neumann constituye el fundamento de los 
sistemas computacionales modernos. 
 
 En los últimos tiempos se han diseñado 
procesadores de hardware orientados al 
procesamiento de funciones especializadas en 
la Inteligencia Artificial, así tenemos: GPU ( 
Graphics Processing Unit}). Es un procesador 
dedicado exclusivamente al procesamiento de 
gráficos. Este procesador especializado libera 
trabajo al procesador principal. Esto se debe a 
que las gráficas en tres dimensiones requieren 
de mucho cálculo de operaciones de aritmética 
de punto flotante. 
 
 TPU (Tensor Processing Unit). Es un 
circuito ASIC (Application Specific Integrated 
Circuit) de Google para implementar redes 
neuronales en el aprendizaje automático el cual 
requiere mucho cálculo masivo matricial. “Un 
tensor es una entidad algebraica que es utilizado 
en la inteligencia artificial por Google para 
crear redes neuronales con TensorFlow y 
mejorar las capacidades del aprendizaje 
automático”. 
 
 TensorFlow. Para poder realizar grandes 
operaciones de punto flotante con matrices 
multidimensionales utilizadas en redes 
neuronales multicapa es necesario un software 
que “corra” en un procesador TPU. Dicho 
software es TensorFlow, una biblioteca de 
funciones desarrollada por el equipo de Google 
Brain (2015) que permite implementar redes 
neuronales orientadas al aprendizaje 
automático. 
 
Las Redes Neuronales 
 
 Santiago Ramon y Cajal (1852-1934), 
médico español, junto con Camilo Golgi, 
descubrieron la estructura del sistema nervioso. 
"Una neurona biológica es una célula 
especializada en procesar información” se 
encuentra en Faúndez Zany Marcos sobre el 
tratamiento digital de Voz e Imagen. 
 
 Una red neuronal artificial es un modelo 
estadístico adaptivo con base en la analogía de 
la estructura de una neurona biológica. “... las 
redes neuronales están construidas por unidades 
simples, a veces llamadas células por analogía 
[Abdi Hervé, et. {\it Neuronal Networks}, 
1999, pg. 1]. 
 
 El primer modelo computacional (1943) de 
una neurona fue propuesto por Warren 
McCulloch (neurocientífico) y Walter Pitts 
(lógico). Por otra parte, Donald Olding Hebb en 
1950, padre de la neuropsicología y las redes 
neuronales, trató de comprender cómo la 
función de las neuronas contribuía a procesos 
psicológicos del aprendizaje. Presentó la teoría 
del aprendizaje en 1949 en La Organización del 
Comportamiento, proponiendo que el 
aprendizaje en los procesos cognitivos del 
cerebro son conexiones entre los conjuntos de 
neuronas. 
 
 Por otro lado, Frank Rosenblatt, psicólogo 
estadounidense en inteligencia artificial 
desarrolló a finales de los años 50´s el 
Perceptrón, una red neuronal artificial o unidad 
básica de inferencias como discriminador o 
clasificación lineal. Consiste en un algoritmo 
capaz de seleccionar un subgrupo a partir de un 
grupo de componentes mayor. 
 
https://es.wikipedia.org/wiki/Estado_f%C3%ADsico
https://es.wikipedia.org/wiki/Funci%C3%B3n_parcial
 
5 
Ejemplar 25. Julio-diciembre de 2021 
 Para 1960 aparece el Perceptrón Multicapa 
(MLP), una red neuronal con retroalimentación 
que tiene por lo menos tres capas. Una de 
entrada, otra de salida, y una capa oculta. Utiliza 
entrenamiento de aprendizaje supervisado 
(Backtracking, 1970). Cada nodo es una 
neurona que utiliza una función de activación 
no lineal. 
 
 En este orden de ideas, a principio de los 
años 80’s, John Hopfield inventó una red 
neuronal artificial recurrente, utilizada 
principalmente como memoria asociativa con 
unidades binarias, las cuales convergen hacia 
un mínimo local, sin embargo, la convergencia 
no garantiza la convergencia de uno de los 
patrones en memoria. 
 
 En el campo de la visión artificial (Hubel y 
Wiesel,1959), se desarrolló en 1990 un tipo de 
red neuronal, llamada Red Neuronal 
Convolucional, donde cada neurona 
corresponde a un campo receptivo similar a las 
neuronas de la corteza visual primaria de un 
cerebro biológico. 
 
 Otro tipo de red neuronal artificial 
desarrollada a finales de los años 90’s, se 
conoce como de Memoria a Corto Plazo 
(LTSM, Long Short-Term Memory), la cual es 
una red neuronal recurrente artificial (RNN). 
Las LTSM son adecuadas para clasificar, hacer 
predicciones con base en datos de series de 
tiempo (datos entre eventos desconocidos). 
 
 El concepto ( Machine Learning), surgido a 
finales de los años 90’s, es una rama de la 
Inteligencia Artificial que desarrolla técnicas 
para que las máquinas aprendan a partirde una 
serie de datos. El Deep Learning es un concepto 
mucho más nuevo y funciona dentro del 
Machine Learning, o como una rama específica 
dentro del Machine Learning. Por otro lado, el 
concepto Deep Learning, es un tipo de Machine 
Learning, entrenada con un sistema 
computacional, para tareas semejantes al 
cerebro biológico como el reconocimiento de 
voz, síntesis de sonidos, reconocimiento de 
imágenes, o predicciones de eventos futuros. 
 
 Hoy en día se utilizan procesadores 
orientados a un solo propósito como el GPU 
(Graphics Process Unit}), un procesador de 
alto rendimiento orientado al procesamiento de 
gráficos e imágenes. Colaborando con su 
similar, el TPU (Tensor Process Unit), ambos 
son utilizados en máquinas de hardware y 
software de Aprendizaje Profundo (Deep 
Learning, 2010) para aplicaciones robustas de 
Inteligencia Artificial. 
 
 Como un ejemplo de todo lo anterior, IBM 
desarrolló IBM WATSON con base en 
Inteligencia Artificial, la cual responde 
preguntas hechas en lenguaje natural. Sus 
diseñadores pueden “platicar” con ella 
mediante una interfase de hardware y software 
de reconocimiento y síntesis de voz. Contiene 
una base de datos propia. También puede 
utilizar bases de datos en red como DBpedia, 
WordeNet, entre otras disponibles en Internet. 
Utiliza la tecnologia DeepQA. DeepQA genera 
Hipótesis, recopila pruebas, realiza análisis, y 
proporciona calificaciones. DeepQA fué 
desarrollado por IBM y SUSE Linux Enterprise 
Server. Inicialmente WATSON tiene 
procesadores a 3.5 GHZ con 8 Núcleos. 
 
Conclusiones 
 
 Podemos concluir que las principales 
aplicaciones de la Inteligencia Artificial en la 
Ingeniería Acústica son: Reconocimiento y 
Síntesis de Voz, mapeo submarino con sondas 
robóticas autónomas, traducción simultánea, 
instrumentación científica, exploración minera 
y petrolera, entre otras. Por lo tanto en el 
mantenimiento preventivo de la industria se 
elucida un panorama muy importante con 
relación al reconocimiento de sonidos o ruidos 
en los sistemas electromecánicos o de otra 
índole, de tal forma que los sistemas de 
cómputo puedan sugerir por medio de las 
frecuencias de vibración si o no se tiene 
presente una posible falla en el equipo. 
 
6 
Ejemplar 25. Julio-diciembre de 2021 
 
Bibliografía 
 
1. Bharath Ramsundar, Reza Bosagh 
Zadeh (1981) TensorFlow for Deep 
Learning, O'REILLY Ed. 
2. François Chollet (2017) Deep Learning 
with Python Pasta blanda, HANNING 
Ed. 
3. Matthew Scarpino (2018) Tensorflow 
for Dummies, ISBN 978-
1119466215,1ª Edición, Ed. For 
Dummies 
4. Andriy Burkov, (2019) The Hundred-
Page Machine Learning Book, 
5. Laurene Fausett, (1994) Fundamentals 
of Neuronal Networks: Architecture, 
Algorithms, and Applications, Prentice 
Hall. 
6. [http://inop2.blogspot.com/p/cadenas-
de-markov.htm] 
7. Marcos Faúndez Zany (2000) 
Tratamiento digital de voz e imagen y 
aplicación a la multimedia Ed. 
MARCOMBO S.A. ISBN:84-267-
1244-4, España, Barcelona 
8. Enciclopedia de Inteligencia Artificial 
Editada por: Juan R. Rabuñal; Julián 
Dorado; Alejandro Pazos Sierra autor 
del capítulo "Tecnología de seguridad 
biométrica". págs. 262–
269, ISBN 978-1-59904-849-9 IGI 
Global 
9. Avances en procesamiento de voz no 
lineal y aplicaciones. Editores: Gérard 
Chollet, Anna Esposito, Marcos 
Faundez-Zanuy & Maria Marinaro. 
Springer Verlag LNCS Vol. 3445. 433 
páginas. ISBN 3-540-27441-3. 
10. 6 Abdi Hervé, et.al, (1999) Neuronal 
Networks, Ed. Elsevier 
 
 
https://en.wikipedia.org/wiki/ISBN_(identifier)
https://en.wikipedia.org/wiki/Special:BookSources/978-1-59904-849-9
https://en.wikipedia.org/wiki/ISBN_(identifier)
https://en.wikipedia.org/wiki/Special:BookSources/3-540-27441-3
	INTELIGENCIA ARTIFICIAL EN LA INGENIERIA ACÚSTICA PARA MANTENIMIENTO PREVENTIVO
	Sergio Blas Ramírez Reyna
	7. Marcos Faúndez Zany (2000) Tratamiento digital de voz e imagen y aplicación a la multimedia Ed. MARCOMBO S.A. ISBN:84-267-1244-4, España, Barcelona

Continuar navegando