Logo Studenta

capitulo_libro_volcanes_ciencia_sociedad_JMLS_

¡Este material tiene más páginas!

Vista previa del material en texto

VOLCANES, TERREMOTOS Y MATEMÁTICAS 
 
 
 
José Miguel Lorenzo Salazar 
Universidad de La Laguna 
 
 
 
 
 
 
"Cuando Marte, Mercurio y la Luna entren en conjunción, hacia el sur habrá una gran 
sequía. En las profundidades de Asia habrá un terremoto: 
Corinto y Efeso quedaran perplejos" 
 
Cfr. Centurias Astrológicas (1547) 
Nostradamus (1503-1556) 
 
 
“Todos los cambios tienen lugar de acuerdo con la ley que enlaza causa y efecto” 
Segunda Analogía, Principio de la Sucesión Temporal según la Ley de la Causalidad 
 
Crítica de la Razón Pura (1781) 
Emmanuel Kant (1724-1804) 
1. Introducción 
 
Las erupciones volcánicas y los terremotos constituyen una experiencia 
impactante para las sociedades modernas. A su espectacularidad debemos añadir que 
son fenómenos naturales que pueden representar un riesgo para la seguridad personal y 
colectiva e, incluso, para el Medio Ambiente. Los fenómenos volcánicos y sísmicos, en 
todas sus variadas manifestaciones, han constituido un atractivo indudable para los 
estudiosos y curiosos a través de todas las épocas de la historia. Una de las primeras 
crónicas escritas acerca de la destrucción ocasionada por la erupción de un volcán se 
debe a Plinio el Jóven en el año 79 D.C., quien describió los efectos devastadores de la 
erupción del volcán Vesubio sobre Pompeya, a los pies del cual se expande hoy la 
ciudad italiana de Nápoles. 
En el siglo XXI las nuevas Tecnologías de la Información y de la Comunicación 
nos permiten conocer al instante hechos que suceden a miles de kilómetros de distancia. 
Los efectos de las erupciones volcánicas sobre la población y las infraestructuras no son 
una excepción. Ejemplos recientes son la erupción del Nevado del Ruiz en Colombia en 
1985 y la erupción pliniana del volcán Pinatubo en Filipinas en 1993. En ambos casos 
los científicos reconocieron con antelación los procesos de reactivación que se estaban 
sucediendo bajo dichos volcanes. En el caso del Nevado del Ruiz, los flujos de lodo que 
produjo el deshielo acelerado de la cima del volcán - como consecuencia del 
calentamiento interno del mismo - arrasaron la ciudad de Armero, causando la muerte a 
25.000 personas. En el caso de Pinatubo, la población fue evacuada. 
Los registros históricos de terremotos anteriores al siglo XVIII son casi 
inexistentes o poco fidedignos. Entre los sismos antiguos para los que existen registros 
fiables está el que se produjo en Grecia en el 425 a.C., que convirtió a Eubea en una 
isla; el que destruyó la ciudad de Éfeso en Asia Menor en el 17 d.C.; el que arrasó 
Pompeya en el 63 d.C., y los que destruyeron parte de Roma en el 476 y Constantinopla 
(ahora Estambul) en el 557 y en el 936. En la Edad Media se produjeron fuertes 
terremotos en Inglaterra en 1318, en Nápoles en 1456 y en Lisboa en 1531 y 1756. 
Recientemente, Bam, una de las antiguas ciudades de la Ruta de la Seda, sufrió 
un terremoto de 6,3 grados de magnitud en la escala Ritcher que produjo la muerte de 
miles de personas y la destrucción total de la ciudad. En 2003 un terremoto de 7,9 
grados de magnitud provocó la muerte de al menos 50.000 personas en Nueva Delhi, 
India, el segundo estado más industrializado de Asia. En 2004 un terremoto sacudió la 
ciudad marroquí de Alhucemas produciendo un número indeterminado de víctimas. Los 
efectos de este terremoto fueron sentidos en el sur de la península Ibérica. 
La cuestión que emerge de una manera explícita tras reconocer estos hechos es 
la siguiente: ¿no es posible predecir y/o prevenir estas catástrofes naturales? La 
respuesta es compleja y admite múltiples matizaciones. De hecho, no es infrecuente que 
salgan a la palestra pública toda suerte de adivinos y pseudocientíficos que pecan de 
adivinadores y futurólogos. Para predecir cualquier fenómeno es indispensable 
observarlo, caracterizarlo, establecer hipótesis de trabajo que expliquen su 
comportamiento, construir modelos y elaborar mecanismos explicativos, etc. En 
definitiva, es preciso emplear las pautas del Método Científico para estudiar y 
comprender bien el fenómeno. 
A medida que la Ciencia evoluciona, las formas de describir y predecir lo que 
acontece en la Naturaleza, esto es, las Teorías, se vuelven cada vez más exactas, es 
decir, más matemáticas. Es indudable que el grado de desarrollo en las matemáticas 
también tiene una relación directa con el desarrollo científico. Pero ¿qué ciencia o 
ciencias incluyen los fenómenos volcánicos y sísmicos como objetos de estudio? La 
Geofísica. En 1838, el profesor de Cambridge W. Hopkins introduce por primera vez el 
 1
término “Geología Física” para designar la ciencia que trata de los aspectos físico-
matemáticos de la Geología. Podemos entender, por tanto, que la Ciencia Geofísica 
unifica los aspectos físico-matemáticos de los fenómenos relacionados con la Tierra. 
Comoquiera que haya sido considerada a lo largo de los últimos dos siglos (“Theorie de 
la Terre”, “Physique du Globe”, «Physikalische Geographie”, “Physical Geology”, etc.), 
la Geofísica Moderna emplea los métodos matemáticos y físicos para el estudio de 
problemas geológicos [1]. Por otro lado, debido a que la Geofísica tiene que enfrentarse 
con problemas cada vez más complejos (por ejemplo, la dinámica interna del manto 
terrestre o la predicción de terremotos), necesita de la interpretación que facilitan otras 
disciplinas (i.e. la Geoquímica). Según la Unión Internacional de Geodesia y Geofísica 
(IUGG), la Geofísica puede dividirse en siete disciplinas: Geodesia; Sismología y Física 
del Interior de la Tierra; Meteorología y Física de la Atmósfera, Geomagnetismo y 
Aeronomía; Ciencias Físicas de los Océanos; Hidrología; Volcanología y Química del 
Interior de la Tierra. 
 
2. Algunos hitos en el desarrollo de la Volcanología y Sismología 
 
 Casi todas las disciplinas que conforman la Ciencia Geofísica tienen un origen 
en las primeras civilizaciones. Los primeros cálculos geodésicos se deben a Eratóstenes 
y Aristóteles (s. III y IV a.C.). La Geofísica moderna se desarrolla de la mano de 
Galileo, Gilbert, Newton, Halley, etc. [1]. La Sismología y la Volcanología, entendidas 
como disciplinas de la Geofísica moderna, son ciencias de reciente aparición. 
El primer sismógrafo reconocido como tal fue diseñado por Chang Heng en 
China en el año 132 de nuestra era. No obstante, hasta el siglo XX no aparecen los 
primeros sismógrafos capaces de registrar la señal sísmica. Hacia 1870, el geólogo 
inglés John Milne (1850-1913), considerado como el padre de la Sismología moderna, 
ideó el predecesor de los actuales sismógrafos (del griego, seismos, ‘agitación’). 
Consistía en un péndulo con una aguja suspendido sobre una plancha de cristal 
ahumado. Éste fue el primer instrumento utilizado en sismología que permitiría 
discernir entre las ondas primarias (P) y secundarias (S). En 1906, Boris B. Golitzin 
(1862-1916) construye el primer sismógrafo electromagnético con grabación 
fotográfica. 
Beno Gutenberg (1889-1960) desarrolló diversos modelos matemáticos del 
interior de la Tierra a partir del estudio de las ondas sísmicas. A él se debe el 
descubrimiento de la discontinuidad entre el manto y el núcleo terrestre que lleva su 
nombre. Andrija Mohorovicic (1857-1936), de origen croata, descubre en 1909 la 
discontinuidad entre la corteza y el manto terrestre que lleva su nombre. Kiyoo Wadati, 
sismólogo japonés, demostró en 1928 la existencia de terremotos con hipocentros 
profundos. Sus trabajos, juntos con los de Hugo Benioff (1894-1968), permitieron 
identificar lo que hoy conocemos como zonas de subducción y, en particular, zona de 
Benioff/Wadati. A Benioff se debe el primer “strainmeter” o instrumento para medir las 
deformaciones (contracciones o dilataciones) de la corteza terrestre (1936). La 
sismóloga Ingle Lehmann (1888-1993) descubre en 1936 el núcleo interno de la Tierra 
y define sus capas interna y externa. 
A Giuseppe Mercalli, sismólogo italiano, debemos la primera escala de 
intensidades (1902).En 1931 adquiere su aspecto definitivo con doce grados de 
intensidad y pasa a denominarse Escala de Mercalli Modificada. Charles Richter (1900-
1985) introduce en 1935 el concepto de magnitud de un terremoto, vinculando este 
nuevo parámetro a la energía liberada en el foco del evento sísmico, de tal manera que 
puede ser calculado directamente a partir de un sismograma, ofreciendo una lectura 
cuantitativa del fenómeno. 
 2
El origen y la distribución geográfica de los fenómenos sísmicos y volcánicos 
fueron discutidos intensamente durante la primera mitad del siglo XX. Finalmente, en la 
década de los sesenta la Teoría de la Deriva Continental y la Tectónica de Placas, 
desarrollada originalmente por Alfred Wegener (“The Origins of Continents and 
Oceans”, 1915) es aceptada por la comunidad científica al mismo nivel que la Teoría de 
la Evolución por selección natural. Por lo tanto, y sin menoscabar la importancia de los 
trabajos de investigación realizados con anterioridad a 1965, podemos aseverar que la 
Sismología y la Volcanología comienzan a evolucionar hasta adquirir su relevancia 
actual a partir de la consolidación de aquellas. 
 
3. Aportaciones de la Matemática a la Sismología y la Volcanología 
 
Uno de los problemas más importantes resueltos por la Matemática que resulta 
de gran aplicación en todas las disciplinas de la Ciencia Geofísica es la interpolación. 
El objeto de los estudios de la Geofísica (i.e. el flujo de calor en una superficie, el 
potencial eléctrico propio en una zona geotermal, la emisión difusa de gases en los 
flancos de un volcán, la resistividad eléctrica en una zona fracturada de la corteza 
terrestre, la distribución geográfica de la pluviosidad y escorrentía superficial, etc.) 
puede expresarse en forma de campo, escalar o vectorial. A su vez, éste puede variar en 
el espacio y/o en el tiempo. La interpolación es vital para la interpretación de las mapas 
o imágenes 2D y 3D obtenidos a partir de muestreos discretos. 
Si usamos el formalismo matemático, podemos definir un campo geofísico, Θ, 
escalar o vectorial, que depende del valor del campo en las condiciones iniciales, Θ0, del 
valor que tome r, la posición dada por las coordenadas espaciales rx (latitud), ry 
(longitud), rz (altitud) y t, el tiempo: 
),,( 0 trΘΘ=Θ (1) 
El problema esencial de la interpolación radica en la estimación del valor del 
campo Θ en unas condiciones (r, t) distintas a las observadas durante la realización de 
las medidas. Para simplificar, consideraremos dos casos particulares de la ecuación (1): 
 
(i) Análisis espacial en condiciones estacionarias durante la realización de las medidas 
),( 0 rΘΘ=Θ ; t = constante (2) 
(ii) Análisis temporal en condiciones espaciales fijas durante la realización de las 
medidas 
),( 0 tΘΘ=Θ ; r = constante (3) 
En el caso (i), hablaremos directamente de la aportación matemática derivada de la 
aplicación del variograma y del kriging. 
En el caso (ii), podemos analizar la variación temporal del campo geofísico en el 
dominio de tiempos a partir del análisis de autocorrelación (el equivalente del 
variograma), en el dominio de frecuencias a partir del espectro de frecuencias (análisis 
de Fourier) o en el dominio de tiempo-frecuencias a partir del estudio del escalograma 
(análisis wavelet). 
 
3.1. Análisis Espacial: kriging y variograma 
 
El análisis espacial de campos geofísicos, supuestos estacionarios o no, tiene su 
origen en una disciplina multidisciplinar: la Geoestadística. La Teoría Geoestadística 
nace en la década de los 50 gracias a los trabajos de Kolgomorov y Wiener quienes la 
formulan empleando la notación matricial en el espacio de Hilbert. Esta teoría comienza 
 3
a ser conocida de una manera más inteligible para el público no especialista a partir de 
los 60 (Matern, 1960; Whitle, 1963 y Matheron, 1965, entre otros). 
 Un procedimiento rápido para interpolar un campo geofísico, de aspecto espacial 
aparentemente aleatorio, consiste en asumir un modelo determinista que describa la 
variación espacial entre dos puntos en donde el valor del campo geofísico es conocido. 
Las técnicas de interpolación determinista, incluyendo la triangulación y el inverso de la 
distancia a una potencia (~1/dn), no consideran la posibilidad de que el campo geofísico 
se distribuya espacialmente con una determinada función de densidad de probabilidad, 
por lo que no permiten realizan una estimación de la eficiencia de la interpolación. Por 
el contrario, las técnicas de interpolación probabilística, como el kriging ordinario que 
comentaremos brevemente a continuación, permiten asignar una varianza o error a la 
estimación realizada en cada punto del espacio [2]. 
La expresión "kriging" es sinónima de “predicción óptima”. Básicamente 
consiste en un método de interpolación que predice el valor del campo geofísico en un 
punto no muestreado a partir del valor observado para dicho campo geofísico en 
localizaciones conocidas. Para ello se emplea el variograma, que permite expresar de 
una manera directa la variación espacial observada mientras se minimiza el error de los 
valores predichos. En la literatura especializada, el kriging también recibe el nombre 
dado por el acrónimo B.L.U.E. (best linear unbiased estimator o mejor estimador lineal 
insesgado). Se dice que es “lineal” porque los valores estimados se obtienen como 
combinaciones lineales ponderadas de los datos disponibles. Es “insesgado” porque la 
media de su error es cero. Es el “mejor” porque persigue minimizar la varianza de los 
errores. Esta es precisamente la diferencia del kriging respecto a otros métodos de 
estimación lineal: su objetivo de minimizar la varianza del error. 
En el kriging ordinario, el estimador empleado para calcular el valor del campo 
geofísico en un punto no medido, , es el siguiente: 
∧
θ
∑
=
∧
∗=
n
j
j
1
θλθ (4) 
∑
=
=
n
i
i
1
1λ (5) 
donde λi representa el peso asignado a cada medida. 
 
El error de la estimación i-ésima, ri, es: 
iiir θθ −=
∧
 (6) 
El error promedio de un conjunto de k estimaciones es: 
i
k
i
k
i
iiR k
r
k
m θθ −== ∑ ∑
= =
∧
1 1
11 (7) 
Y, finalmente, la función que debe minimizar el kriging, la varianza [3], es: 
( )∑ ∑ ∑
= = =
∧∧











 −−−=−=
k
i
k
i
k
i
iiiiRiR kk
mr
k 1
2
1 1
22 111 θθθθσ (8) 
 La herramienta básica para la interpretación estructural (espacial) del fenómeno 
así como para efectuar la estimación es el variograma. Matemáticamente, el variograma 
se define como 
( ) ( )[ ])(2 rhrVarh θθγ −+= (9) 
donde la función γ(h) recibe el nombre de semivariograma [4] y h es la distancia entre 
la posición del punto a estimar y una observación próxima a él. El variograma recoge 
toda la información acerca de la variabilidad espacial del campo geofísico e incluye los 
 4
pesos asignados a cada punto de medida durante el proceso de interpolación. El estudio 
y la elección de un modelo adecuado para el variograma son de crucial importancia ya 
que éste incide directamente sobre el resultado de la interpolación. El variograma 
permite reflejar las condiciones de heterogeneidad y anisotropía observadas 
frecuentemente cuando se estudia la distribución espacial de un campo geofísico (i.e. la 
permeabilidad de un conducto volcánico al paso de los gases; la distribución espacial de 
la emisión difusa de gas volcánico a través de los suelos, etc.). 
 La varianza a minimizar, expresada a través de la ecuación (8) puede ser 
reescrita en términos del semmivarigrama de la siguiente manera: 
 
 (10) ( ) ( )∑ ∑∑
= = =
−−
−−=
n
i
n
i
n
j
jijiiiR VVrrVr
1 1 1
2 ,,),(2 γγλλγλσ
donde representa el promedio del semivariograma entre el punto r( Vri ,
−
γ ) i y el volumen 
ocupado por el total de observaciones V [5]. 
A modo de ejemplo, podemos considerar dos tipos de semivariogramas observados 
frecuentemente: 
(a) semivariagrama de modelo esférico 
 ( ) ahsi
a
h
a
h
Ch <
















−= 3
3
2
1
2
3γ( ) ahsiCh ≥=γ (11) 
(b) semivariograma de modelo exponencial 
 ( )














−−=
a
h
Ch expγ (12) 
Un ejemplo del uso de la interpolación probabilística en los estudios de 
Volcanología puede encontrarse en [6]. En este caso, el kriging ha sido utilizado para 
estimar la distribución espacial de las emisiones difusas de dióxido de carbono en los 
flancos y cráteres del volcán Cerro Negro, Nicaragua, en 1999. Cerro Negro es el 
volcán más joven del hemisferio Norte (“nació” en 1951) y es uno de los más activos 
(su ciclo eruptivo es inferior a los diez años). Sus erupciones más recientes ocurrieron 
en 1992, 1995 y 1999. 
 
Figura 1. Distribución 
espacial de las emisiones de 
dióxido de carbono en el 
volcán Cerro Negro, 
Nicaragua, en diciembre de 
1999. El kriging permite 
estimar la emisión difusa de 
gas por medio de la 
interpolación a partir de las 
observaciones realizadas en 
algo más de 200 puntos sobre 
los flancos y cráteres 
históricos del volcán. 
 
 
 
 
 
 5
 
La aplicación del variograma y del kriging nos permite obtener imágenes n-
dimensionales del fenómeno en estudio [7]. A partir de ellas es posible discernir gráfica 
y/o numéricamente la presencia de regiones donde el campo geofísico adopta valores 
anómalos. En especial, resultan de gran utilidad los métodos matemáticos de detección 
de anomalías y valores frontera (outliers). Ejemplos de estos métodos son el análisis de 
colas (heavy tails), el análisis gráfico de Sinclair (1974), el estadístico de salto o GAP 
(Miesch, 1981), U* y análisis multifractal de Cheng (1999), análisis de los estadísticos 
de orden superior, etc. 
 
3.2. Análisis de Series Temporales: uso de las transformaciones matemáticas 
 
 La aparición de los materiales semiconductores extrínsecos en la década de los 
50 condujo a la fabricación de los primeros transistores (1947). La carrera por la 
miniaturización, la reducción del consumo eléctrico de los componentes electrónicos y 
de los costes ha impulsado un desarrollo tecnológico que también se ha dejado sentir en 
disciplinas científicas como la Sismología y la Volcanología. La mejora continua en la 
instrumentación científica, en especial en los instrumentos portátiles o de campo, en los 
sistemas de adquisición de datos (conversión analógico-digital más rápida y eficiente) y 
en los sistemas de telecomunicación (telemetría) está permitiendo la observación y 
recogida de una ingente cantidad de información geofísica, bien sea desde la superficie 
terrestre o desde el espacio. En muchos casos, dicha información se presenta con el 
aspecto de una serie de datos en los que la ordenación temporal es relevante. En este 
caso, hablamos de series temporales (caso (ii)). Ejemplos de series temporales de interés 
para la Sismología y la Volcanología son, entre otras: 
 
• el registro sísmico 
• la deformación de la corteza terrestre en una zona sísmicamente activa o de un 
edificio volcánico activo 
• las mareas oceánicas y terrestres 
• el nivel de agua en el interior de un pozo 
• la variación del campo magnético interno terrestre 
• la emisión de gases a través de los suelos 
• la composición química de los gases fumarólicos 
• las anomalías de gravedad, etc. 
 
Y aquí es donde la Matemática nuevamente está contribuyendo de una manera decisiva 
en la interpretación de los fenómenos sísmicos y/o volcánicos. Algunas de las 
contribuciones más evidentes en el análisis de series temporales (auque también es 
aplicable al análisis espacial) son las siguientes: 
 
• Filtrado. Se emplea para reducir o eliminar el ruido inherente al registro 
instrumental de series temporales o para separar las distintas componentes 
periódicas de las componentes irregulares. También puede emplearse para 
reducir el tamaño de los archivos digitales en los que se almacena la 
información. 
• Descomposición y reconstrucción. La descomposición de una serie temporal en 
componentes deterministas y no deterministas puede facilitar su análisis e 
interpretación. Asimismo, es posible eliminar información redundante de los 
registros y así facilitar la transmisión de información a distancia. Para ello se 
puede emplear algunas de las técnicas del análisis estadístico multivariante 
 6
clásico como son la extracción de factores (componentes principales), análisis de 
conglomerados (clusters), acumulación de histogramas (método HiCUM), 
estudio de los momentos de orden superior, etc. 
• Modelado. El establecimiento de modelos matemáticos, una vez validados con 
datos obtenidos empíricamente, permite a los científicos predecir el 
comportamiento del sistema en estudio. 
• Detección de anomalías y predicción. El estudio de determinadas propiedades de 
una serie temporal permite establecer criterios de alarma, es decir, valores 
umbral por encima o por debajo de los cuales los valores observados pueden 
considerarse como anómalos o no normales. Entre ellas podemos citar la 
varianza (o covarianza), la dimensión de Hausdorf, la dimensión fractal, etc. 
Una serie temporal puede ser analizada, al menos, en dos dominios distintos: en el 
dominio temporal (figura 2) y en el dominio de frecuencias (figura 3). En la figura 2 se 
muestra el registro sísmico de un terremoto de magnitud 5,8 en la escala de Ritcher 
ocurrido el veinte de marzo de dos mil cuatro en la región de Kamchatka, Rusia, a una 
profundidad de 31 km. En la figura 3 se muestra el análisis espectral o análisis de 
Fourier obtenido utilizando una ventana de tiempo de promediado muy ancha, con 
objeto de suavizar el aspecto de la función de densidad espectral resultante. El análisis 
espectral de la señal sísmica revela la presencia de distintas componentes de baja 
frecuencia y la ausencia de componentes periódicas de frecuencias altas. 
 
Figura 2. Sismograma de un terremoto 
registrado a 31 km de profundidad en 
Kamchatka. Datos del sismo: latitud 53,74 
ºN, longitud 160,74 ºE. Del total de 120.000 
muestras (tomadas a intervalos de 9 ms) se 
muestran alrededor de 10.000, lo que 
equivale a un periodo de 100 segundos de 
registro. 
 
 
Figura 3. Análisis espectral aplicado a una serie de 
80 segundos del sismograma de la figura 2 efectuado 
con el programa STATISTICA v6.0. El análisis 
espectral del sismograma revela la presencia de 
diversas componentes periódicas en la región de 
bajas frecuencias y la ausencia de componentes 
periódicas de frecuencias elevadas. 
 
La representación de una serie temporal en 
el dominio de tiempos, esto es, el gráfico de 
la señal versus tiempo, nos proporciona una 
lectura directa del fenómeno que produce la señal. También resulta de especial utilidad 
la función de autocorrelación, γ(τ), definida como 
Análisis Espectral del Sismograma
0.00 0.02 0.04 0.06 0.08 0.10
Frecuencia
0E-01
2E+12
4E+12
6E+12
8E+12
1E+13
D
en
si
da
d 
E
sp
ec
tr
al
0
2E12
4E12
6E12
8E12
1E13
 [ ] [ ]{ } [ ])(),()()()( τθθµτθµθτγ +=−+⋅−= ttCovttE (14) 
donde θ(t) representa el campo geofísico dependiente del tiempo, es decir, la serie 
temporal, t y τ representan el tiempo, µ es la esperanza matemática del campo geofísico 
(µ=E[θ(t)]) y Cov representa la covarianza del proceso. Nótese que se ha empleado una 
notación para la función de autocorrelación, γ(τ), similar a la empleada para el 
semivariograma, γ(h). De hecho, ambas funciones son equivalentes: una se emplea en el 
dominio espacial y otra en el dominio temporal. El análisis de la función de 
autocorrelación (dominio de tiempo) nos permite obtener información indirectamente 
 7
sobre las distintas frecuencias presentes en la señal original. No obstante, su uso no está 
indicado para señales de cierta complejidad donde pueda resultar harto difícil identificar 
componentes de frecuencias muy parecidas. En este caso es preciso transformar la serie 
temporal original al dominio de las frecuencias empleando una base de funciones 
ortogonales. Para ello recurrimos al análisis espectral. 
El análisis espectral tiene su origen en las investigacionesdesarrolladas por Jean 
Baptiste Joseph Fourier (1768-1830) sobre las propiedades de la transferencia de calor 
en sólidos conductores. Sus trabajos a comienzos del siglo XIX (“La Teoría Analítica 
del Calor”) sentaron las bases para la disciplina matemática del Análisis de Señales. 
Fourier introdujo un nuevo concepto en la matemática de su época (con la oposición 
frontal de Biot, Laplace, Poisson, etc.): cualquier función arbitraria, incluso aquellas que 
muestran discontinuidades, puede ser aproximada mediante una expresión analítica 
sencilla. Fourier estableció las ecuaciones en derivadas parciales que gobiernan la 
difusión del calor y encontró una solución empleando series infinitas de funciones 
trigonométricas de senos y cosenos (base ortogonal). 
Sea una función continua, θ(t), de periodo T. Dicha función puede expresarse 
como serie de Fourier en los siguientes términos [8, 9]: 
 
∑
∞
= 





+




+=
1
0 )2(2cos
2
)(
n
nn tT
nsenbt
T
na
a
t ππθ (15) 
donde los coeficientes an y bn pueden ser calculados a partir de: 
 ∫
+
=
TC
C
n dttT
nt
T
a )2cos()(2 πθ (16) 
 ∫
+
=
TC
C
n dtT
nsent
T
b )2()(2 πθ (17) 
Los coeficientes de estas funciones base ortonormales representan la contribución de las 
componentes cosenoidales y sinusoidales de la señal en todas las frecuencias [10]. De 
esta manera, una señal geofísica cualquiera puede ser descompuesta en las distintas 
componentes periódicas presentes. 
Por tanto, el análisis de Fourier consiste en obtener una representación en 
frecuencia de la señal original a partir del cálculo de los coeficientes ao, an y bn. Sin 
embargo, el cálculo de estos coeficientes requiere un elevado coste computacional. Este 
problema quedó resuelto con el descubrimiento de un algoritmo que denominamos 
Transformada Rápida de Fourier (FFT). Fue propuesto por J. W. Cooley, J. W. Tukey y 
G. Sande en 1965 para el análisis de series temporales. Sin entrar en mayor detalle, 
baste decir que si el número de medidas, N, de la serie temporal es o puede expresarse 
(i.e. mediante truncamiento de la serie original o por adición de ceros) como múltiplo de 
dos (2n), entonces el número de operaciones necesarias para completar el análisis de 
Fourier se reduce de NN a N2. El descubrimiento del algoritmo FFT permitió la 
implementación de los primeros circuitos integrados analizadores de espectros en 
tiempo real. 
La Transformada de Fourier de la señal original, Θ(w), esto es, la transformación 
de la señal temporal original al dominio de las frecuencias, se puede realizar de la 
siguiente manera para una serie temporal continua: 
 (18) ∫
+∞
∞−
−=Θ dtetw jwt)()( θ
 8
donde w es la frecuencia, t es el tiempo y j permite usar la notación compleja 
( 1−=j ). Una vez obtenida la representación espectral o en frecuencia de la señal 
original, es posible recuperar la señal original a partir de 
 (19) ∫
+∞
∞−
Θ= dwewt jwt)()(θ
En el caso de que la serie temporal sea discreta, la transformada de Fourier se escribe 
usando un sumatorio [10]: 
 ∑
−
=
⋅−∧
=≡Θ
1
0
21)(
N
n
N
jkn
nk eN
w
π
θθ (20) 
En la actualidad, existen sismógrafos que registran la actividad sísmica en un 
amplio rango de frecuencias (estaciones sísmicas de banda ancha como las instaladas 
por el Instituto Geográfico Nacional en Canarias recientemente), de manera que es 
factible adquirir la señal sísmica y procesarla en tiempo real para estimar su espectro de 
frecuencias. El espectro de frecuencias nos proporciona información sobre la naturaleza 
de la señal sísmica. Las señales sísmicas conocidas como tremor volcánico se asocian a 
la resonancia de estructuras rellenas de fluidos, bien sean estáticos o estén en 
movimiento, localizadas bajo un volcán activo. El tremor volcánico se caracteriza por 
formas de onda persistentes o sostenidas en el tiempo. El tremor refleja una vibración 
continua del suelo o pequeños sismos muy frecuentes cuyas ondas se solapan. Si la 
señal sísmica presenta una frecuencia constante, hablamos de tremor armónico. Si la 
señal sísmica varía ostensiblemente en frecuencia o amplitud, hablamos de tremor 
espasmódico [11]. Los sismos de largo período o sismos LP pueden atribuirse a la 
resonancia provocada por cambios en la presión de los fluidos alojados en grietas, 
cavidades y conductos [12]. En este tipo de eventos predominan las bajas frecuencias. 
En un volcán activo o en un sistema volcánico donde comienza a alojarse magma poco 
desgasificado es frecuente observar enjambres de terremotos de tipo LP con eventos 
individuales de frecuencias dominantes bien definidas (i.e. 4 Hz). 
Un ejemplo de aplicación del análisis espectral se refleja en la figura 4, donde se 
puede observar el resultado de aplicar la transformada rápida de Fourier a una serie 
temporal de la emisión difusa de dióxido de carbono en las faldas de un volcán activo en 
Centro América. 
Figura 4. Serie temporal de la emisión difusa de dióxido de carbono en el volcán San Vicente, El 
Salvador (izquierda). A la derecha se muestra el espectro de frecuencias obtenido a partir del análisis de 
Fourier de la señal original. 
 
A pesar de la versatilidad de la transformada de Fourier, existen una serie de 
inconvenientes. En primer lugar, la transformada de Fourier falla cuando tratamos de 
representar con exactitud funciones de componentes no periódicas bien localizadas en el 
tiempo (o en el espacio), como pueden ser los transitorios o impulsos (i.e. la llegada de 
 9
un tren de ondas P o S a un sismógrafo; la llegada de un pulso de gas a la superficie en 
forma de solitón). En segundo lugar, la transformada de Fourier no proporciona 
información sobre la dependencia temporal de la señal ya que la transformada refleja el 
promediado a través de toda la duración de la serie temporal. Estas limitaciones son 
patentes cuando se analizan señales geofísicas no estacionarias y de naturaleza no 
periódica. Muchas series temporales geofísicas exhiben un comportamiento no 
estacionario en su estadística. Generalmente presentan componentes periódicas 
dominantes (tendencia o deriva) superpuestas con una serie irregular o ruidosa, y 
pueden variar tanto en amplitud como en frecuencia. Por eso es interesante poder 
separar las variaciones de periodo corto de las variaciones de periodo largo y distinguir 
éstas de las variaciones no periódicas. 
Para mitigar las limitaciones del análisis de Fourier la Matemática proporciona 
nuevos métodos: el análisis tiempo-frecuencia. Una aproximación al problema consiste 
en dividir la señal original en ventanas de duración temporal conocida y analizar el 
contenido frecuencial de cada una de ellas por separado. Otra aproximación consiste en 
filtrar diferentes bandas de frecuencia y después dividir estas bandas para analizar la 
varianza o energía en cada una de ellas. El primer método recibe el nombre de 
transformada corta o de periodo corto de Fourier (STFT; Dennis Gabor, 1946) y 
también se usa para construir la transformada de Wigner-Ville: 
dtetttwW jwt−
+∞
∞−
⋅−⋅+= ∫ )2()2(),(
τθτθ (21) 
 El segundo método recibe el nombre de transformada de ondícula o 
transformada wavelet. La transformada wavelet es un procedimiento empleado para 
diseccionar la señal en sus partes constituyentes permitiendo el análisis de los datos en 
distintas bandas de frecuencias por comparación con una función átomo denominada 
wavelet, ψo(η). En otras palabras, se descompone la señal original en un conjunto de 
funciones base denominadas wavelets (y que deben cumplir una serie de condiciones), 
análogas a los cosenos y senos de la transformada de Fourier. Estas funciones base se 
obtienen por dilatación y traslación de una función wavelet madre. La principal 
diferencia entre la transformada wavelet y la de Fourier es que la primera permite la 
localización temporal de determinadas componentes periódicas. Para la localización 
temporal se emplean versiones trasladadas de la función wavelet madre, mientras que 
para la localización en escala(frecuencia) se emplean versiones dilatadas o contraídas 
de la misma. 
Los fundamentos de la transformada wavelet se remontan a los trabajos 
originales de Alfred Haar en 1909. No obstante, el gran desarrollo de esta transformada 
y de sus múltiples aplicaciones se debe a las investigaciones de Grossmann (físico 
teórico) y Morlet (geofísico) en los años 80. Estos investigadores emplearon el análisis 
tiempo-frecuencia para estudiar terremotos y obtener modelos del desplazamiento de las 
ondas sísmicas a través de la corteza terrestre. Otros nombres destacados son los Ingrid 
Daubechies (1988), Stéphane Mallat (1989) y Yves Meyer (matemático especialista en 
análisis armónico; 1993). 
 
La función wavelet empleada en los trabajos de Morlet puede definirse como 
 24
1 2
)(
η
ηϖπηψ −
−
= ee ojo (22) 
donde η representa la variable tiempo sin dimensiones y wo es el número de onda. La 
versión dilatada y escalada de la función wavelet madre es: 
 ( ) 


 −





=


 −
s
tnn
s
t
s
tnn
o
δψδδψ ')´(
2
1
 (23) 
 10
donde s es el parámetro de dilatación para cambiar de escala (banda de frecuencia) y n 
es el parámetro de traslación. El factor s-1/2 normaliza la expresión para mantener 
constante la energía total de la función wavelet en todas las escalas. 
 
 La transformada wavelet puede entonces definirse como el producto interior 
(convolución matemática) de la función wavelet con la serie temporal geofísica [13]: 
 ( ) 


 −= ∑
−
= s
tnntsW
N
n
nn
δψθ ')()( *
1
0'
' (24) 
donde el asterisco denota el complejo conjugado. 
En la práctica la transformada wavelet no es calculada en el dominio temporal 
(ecuación 23) sino en el dominio de Fourier [14]. Para ello se calcula la convolución de 
las transformadas de la señal original y de la función wavelet modificada: 
 (25) ∑
−
=
∧∧
=
1
0
)(*)(
N
k
tnj
kkn
kessW δϖϖψθ
La representación bidimensional escala (o frecuencia) versus tiempo de la transformada 
Wn(s) resulta de utilidad para la interpretación geofísica de un fenómeno. La 
representación cuadrática, [Wn(s)]2, nos proporciona información sobre la potencia de la 
señal en una determinada escala y a un tiempo determinado [15]. 
En la figura 5 se presenta un análisis completo de la serie temporal estudiada por 
Salazar et al. [16] acerca de la variación temporal de la emisión difusa de dióxido de 
carbono en el flanco del volcán San Vicente, El Salvador, en 2001. Junto con la serie 
temporal original se puede observar un gráfico bidimensional tiempo-frecuencia 
(también conocido como escalograma) obtenido aplicando la transformada de wavelet 
con una wavelet de Morlet, la potencia espectral asociada a cada frecuencia y la 
reconstrucción “suavizada” de la serie a partir del promediado de la varianza para 
oscilaciones de periodo comprendido entre 2 y 24 horas. 
 
Figura 5. Análisis tiempo-frecuencia mediante transformada wavelet usando la función wavelet definida 
por Morlet. 
 
 11
En la figura siguiente se muestra la representación tridimensional del escalograma de la 
figura anterior modificando los ejes de frecuencia y potencia espectral (se han tomado 
logaritmos de base 2). 
 
 
 
 
 
Figura 6. Escalograma 3D de 
la serie temporal de la emisión 
difusa de dióxido de carbono e
el volcán San Vicente, El 
Salvador, en 2002. 
n 
 
 
 
 
 
 
 
 
3.3. Modelos matemáticos para la interpretación de fenómenos geofísicos 
 
 La mayor parte de los modelos matemáticos aplicados en Geofísica persiguen 
distinguir el comportamiento determinista (predecible) del no determinista 
(parcialmente predecible). La contribución determinista a una serie temporal o espacial 
puede ser descrita por la tendencia o deriva, Θdet, así como por componentes periódicas 
de frecuencias conocidas, como las que se obtienen en el análisis de Fourier o análisis 
armónico. La contribución no determinista, Θno-det, puede reflejar la presencia de 
componentes irregulares, complejas, no estacionarias, posiblemente no lineales. Esta 
aproximación común puede describirse de la siguiente manera: 
 detdet),,( −Θ+Θ=ΘΘ noo tr (26) 
En función de la naturaleza del campo geofísico que se estudie, el enfoque matemático 
elegido será uno u otro. En particular, podemos citar el uso de los modelos 
autorregresivos integrados de medias móviles o ARIMA, propuestos por George E. P. 
Box y Gwilym M. Jenkins en 1976 en su libro Time Series Analysis: Forecasting and 
Control [17]. Estos modelos encuentran hoy una versátil aplicación en el estudio de 
series econométricas y bursátiles. La forma más general de los modelos ARIMA 
obedece la siguiente formulación: 
 (27) tot
d
t aByByB )()()( θθφϕ +=∇=
 (28) pp BBBB φφφφ −−−−= ...1)(
2
21
 (29) qq BBBB θθθθ −−−−= ...1)(
2
21
y se denota por las siglas ARIMA(p,d,q). En este caso la serie temporal a modelar es yt 
y at representa una variable aleatoria (ruido). Este tipo de modelos es aplicable a series 
temporales estacionarias o cuasi-estacionarias y permite incluir el comportamiento 
autorregresivo (o autosimilar) de la serie así como la existencia de un comportamiento 
promediado en el tiempo (medias móviles). 
Un ejemplo reciente de la aplicación de este tipo de modelos en Volcanología lo 
constituye el trabajo de Granieri et al. en 2003 [18] quienes han obtenido una expresión 
para predecir el comportamiento de la emisión difusa de dióxido de carbono en los 
 12
campos fumarólicos de la Solfara di Pozzuoli, Italia, bajo la forma de un proceso 
ARIMA: 
 ( )[ 11 02.077.0)03.044.0( −− ]±−+±= tttt yBy ηη (30) 
donde ηt representa la serie temporal yt filtrada para eliminar las componentes 
periódicas conocidas (i.e. como la influencia de la presión barométrica sobre la emisión 
difusa de gas hidrotermal). El filtrado puede consistir en la eliminación de las 
principales componentes periódicas reflejadas en el análisis espectral. Otro 
procedimiento factible consiste en realizar una regresión lineal multivariable entre el 
flujo difuso de dióxido de carbono y otras variables independientes, como la radiación 
solar, la presión barométrica, la velocidad del viento, etc. La serie filtrada se obteniene 
al sustraer de la serie original la serie temporal obtenida por regresión lineal. 
 La descripción matemática de las mareas oceánicas y terrestres ha evolucionado 
mucho en los últimos treinta años gracias a la mejora en la instrumentación y, por ende, 
en la calidad de los datos geofísicos (i.e. medida de velocidades angulares, amplitudes, 
etc.). Las mareas oceánicas y terrestres son debidas a la influencia gravitatoria de la 
Luna y el Sol (la marea lunar es 2,2 veces mayor que la marea solar). Newton (1687) 
fue el primero es formular modelos para describir las mareas. Sus ideas fueron 
desarrolladas por D. Bernouilli (1700-1782), L. Euler (1707-1783) y C. Maclaurin 
(1698-1746). Pierre Simon, marqués de Laplace (1749-1827), fue el primero en 
reconocer la dificultad de una solución extacta para modelar las mareas y propuso 
soluciones aproximadas para describir la fluctuación de las mareas oceánicas. 
 Uno de los modelos más usados para caracterizar y predecir las mareas es el 
siguiente [19]: 
 (31) ( ) ∑∑
=
−
=
++++=
K
k
ttktk
M
m
mtmmtmt dybSCy
01
εβα
donde el primer sumando de la ecuación representa la respuesta de la Tierra a la fuerza 
gravitatoria ejercida por la Luna y el Sol; el segundo sumando representa las 
perturbaciones no gravitatorias ejercidas sobre la marea, como la influencia de la 
presión barométrica y la temperatura; el tercer sumando representa la tendencia o deriva 
de la serie temporal (uno de los términos más difíciles de modelar); y, finalmente, el 
cuarto sumando representa la componente irregular o residuo en las observaciones que 
no es explicada por las variables anteriores. La obtención de un modelo adecuado para 
explicar las observaciones requiere el uso de Mínimos Cuadrados para minimizar la 
siguiente expresión: 
 (32) { } {
2
1 1
22 )()( ∑ ∑
= =
+=
N
t
N
t
tdfuncionvresiduodJ}
Para determinar el aspecto final del modelo (calcular las constantes de marea αm, βmt, 
los pesos de la perturbación bk, etc.) es preciso asignar un valor al parámetro v (su 
cuadrado, v2, recibe el nombre de hiperparámetro). Para ello se elige un valor inicial del 
hiperparámetro y se emplea el Criterio de Información Bayesiana (ABIC) propuesto por 
Akaike en 1980 [20] para ajustar el valor de v2 que produzca el modelo más 
parsimonioso (equilibrio entre la complejidad del modelo y el ajuste a las observaciones 
ya realizadas): 
 { }∫−= dLPABIC dlog2 (33) 
donde L y P son funciones que dependen de la componente irregular o residuo y de la 
segunda diferencia de la deriva dt, respectivamente. 
 La microsismicidad de una región puede estar modulada por la acción de las 
mareas oceánicas (en función de su proximidad al mar) o de otro tipo de cuerpos 
hídricos (como los lagos o embalses) y mareas terrestres (oscilaciones de menor 
 13
amplitud de la corteza terrestre). Las mareas actúan como un pistón de movimiento 
alternativo sobre los fluidos y materiales que conforman la corteza terrestre. Si ésta se 
encuentra en un estado de tensiones crítico, la fluctuación de la presión ocasionada por 
las mareas puede actuar como mecanismo modulador de la liberación de energía sísmica 
acumulada en la corteza terrestre. 
 En la figura 7 se muestra un ejemplo de aplicación del modelo (31) para el 
cálculo de la marea oceánica en la estación Miyato, Japón. En la figura 7 puede 
observarse la serie temporal original, expresada en centímetros, que refleja las 
variaciones temporales del nivel del mar en dicha estación. La aplicación del criterio de 
Akaike permite extraer la respuesta de la marea oceánica debida a la presión 
barométrica, lo que facilita el aislamiento de la deriva y la componente irregular de 
dicho registro. 
 Otros modelos proceden de diversas teorías matemáticas desarrolladas en los 
últimos años. Entre ellas podemos citar las Redes Neuronales, Lógica Borrosa, 
Máquinas de Vectores Soporte [21], Fractales [22, 23], Criticalidad Auto-organizada 
[24, 25, 26], Filtros de Kalman, Modelos de Espacio-Estados, Procesos de Markov, 
Espectroscopía de Ruido Flicker [27], etc. 
 
 
 
nstrumentales 
na 
r o 
 
. Predicción 
 
 
Figura 7. Análisis de 
mareas oceánicas 
realizado sobre una 
serie de mediciones del 
nivel del mar en la 
estación Miyato, 
Japón. Para ello se ha 
empleado el programa 
Baytap-G. [19, 20]. La 
componente de marea 
(TIDAL) puede 
aislarse de la respuesta 
a la presión 
barométrica de la 
marea (RESP), de la 
tendencia o deriva 
ocasionada por 
aspectos i
(TREND) y de u
componente irregula
residual (IRREG). 
Nótese que todas las
magnitudes se han 
expresado en 
centímetros. 
 
 
 
 
 
4
de terremotos y erupciones volcánicas 
 La predicción de terremotos y erupciones volcánicas quizás constituye el aspecto 
más relevante y de interés social de las investigaciones realizadas por sismólogos, 
 14
volcanólogos y geofísicos en general. Y la razón es obvia: si sabemos dónde, cuándo y 
de qué magnitud será el terremoto (o dónde, cuándo y de qué índice de explosividad 
volcanica será la erupción volcánica) podríamos salvar vidas y minimizar el impacto 
sobre las infraestructuras y el Medio Ambiente de estos fenómenos naturales. 
 En especial, la predicción de terremotos ha sufrido serios cambios en las últimas 
décadas. En primer lugar debemos recordar que la fuente de los terremotos no fue 
renocida como tal hasta 1960 y que las primeras redes sismográficas modernas 
empezaron a establecerse entre 1970 y 1980. A la euforia desatada en la década de los 
setenta por la predicción exitosa de algunos terremotos en China, le siguió una década 
de fracasos predictivos, lo que condujo a modificar el paradigma de la predicción de 
terremotos: de un paradigma casi determinista a uno probabilista y la introducción de 
nuevos conceptos físicos: la criticalidad auto-organizada [24, 26]. Durante la década de 
los 90, y bajo este nuevo paradigma, se han realizado grandes progresos. Son numerosas 
las investigaciones que ponen de manifiesto la existencia de fenómenos precursores de 
muy diversa naturaleza que anteceden a los terremotos [28-33]. No obstante, existe una 
corriente escéptica liderada por R. J. Geller [34, 35] que establece la total imposibilidad 
de la predicción de terremotos. Una vez aceptado el concepto de la criticalidad auto-
organizada en la superficie terrestre [36, 37], se ha reconocido la existencia y ubicuidad 
de comportamientos transitorios de la corteza que pueden haber sido identificados 
erróneamente como precursores de terremotos y que resultaron falsas alarmas [38]. La 
corteza terrestre está en plena transformación a distintas escalas temporales y 
geológicas. Con la intención de poner orden a este confuso escenario, la Asociación 
Internacional de Sismología y Física del Interior de la Tierra (IASPEI) formó una 
Subcomisión para la Predicción de Terremotos quien ha establecido una clara definición 
de “precursor” y las condiciones para que una observación anómala pueda ser 
catalogada como tal [39]. 
 
Definición de Precursor 
Un “precursor” se define como un cambio cuantitativamente medible en un parámetro 
(geofísico) ambiental que ocurre antes de un terremoto (mainshock) y que está 
relacionado con el proceso de preparación del mismo”. 
Los candidatos a precursores deben reunir una serie de requisitos: 
a) la anomalía observada debe tener alguna relación con el esfuerzo o tensión 
(stress), deformación (strain) o con algún mecanismo que conduzca al 
terremoto. 
b) la anomalía debe ser observada smultáneamente al menos con dos 
instrumentos, o en más de un sitio de observación. 
c) la amplitud de la anomalía observada debe presentar alguna relación con la 
distancia al eventual terremoto. 
d) la proporción entre el tamaño de la zona de riesgo (en el tiempo y en el 
espacio) y el tamaño de la zona vigilada por instrumentos debe ser discutida 
para evaluar la utilidad el método de predicción. 
 
Atendiendo al Principio de la Sucesión Temporal según la Ley de Causalidad de Kant, 
“todos los cambios tienen lugar de acuerdo con la ley que enlaza causa y efecto” [40]. 
Hablar de predicción implica hablar de probabilidades, de nivel de confianza, de riesgo 
o valor crítico, de estimadores, de distribuciones de probabilidad, etc. Y nuevamente es 
aquí donde la matemática, con su versión probabilística de los fenómenos naturales, 
desempeña un papel relevante [41, 42]. Nombres propios de la contribución de la 
matemática de la probabilidad al resto de las Ciencias son Laplace (probablidad 
clásica), Émile Borel (teoría de conjuntos), Henri Lebesgue (teoría de la medida), 
 15
Andrei Nicolaievich Kolgomorov (axiomática del cálculo de probabilidades), Richard 
von Mises (definición de probabilidad empleando la notación de límite) y Thomas 
Bayes (teorema de Bayes), entre otros. 
La definición clásica de probabilidad propuesta por el marqués de Laplace en 
1774 (proporción del número de casos favorables a un suceso A al número de casos 
posibles) quedó superada por la definición del pastor presbiteriano Thomas Bayes 
(1702-1761) en su conocido teorema: 
 
)2211 /()(...)/()()/()(
)/()(
)/(
nn
ii
i ABpApABpApABpAp
ABpAp
BAp
⋅++⋅+⋅
⋅
= [34] 
 
donde A1, A2,…,An es un sistema completo de sucesos tales que la probabilidad de cada 
uno de ellos es distinta de cero y B es un suceso cualquiera para el que se conocen las 
probabilidades p(B/Ai). Las probabilidades p(Ai) se denominan a priori (i.e. la 
probabilidad asociada a la observación de un determinado tipo de anomalía 
potencialmente precursora de un terremoto, como el cambio en el nivel de agua de un 
pozo o un aumento súbito de la emisión difusa de gas volcánico en el flanco de un 
volcán); las probabilidades p(B/Ai) se denominan verosimilitudes (i.e. la probabilidad 
de que ocurra un terremoto habiendo sido observada una anomalía de un determinado 
tipo); y las probabilidades p(Ai/B)se denominan a posteriori (i.e. la probabilidad de que 
se observe una anomalía de un determinado tipo habiendo ocurrido un terremoto en la 
zona de observación). Por otro lado, estos sucesos pueden ser independientes, 
p(B)=p(B/A), o dependientes, p(B)≠p(B/A). Lo dicho hasta ahora es válido para el 
estudio de los precursores de una erupción volcánica. En el caso de la erupción 
volcánica el pronóstico es más sencillo, en principio, debido a que en este caso el área 
donde podría ocurrir la erupción es conocida de antemano: el propio volcán [43], si éste 
ya existiera. 
Dos diferencias notables entre la predicción de una erupción volcánica y la de un 
terremoto son la cinética y la profundidad del fenómeno [44]. Por lo general, la cinética 
de una erupción es más lenta que la de nucleación y disparo de un terremoto, por lo que 
se dispone de un intervalo de tiempo mayor para actuar en el primer caso. Asimismo, la 
erupción volcánica se fragua a pocos kilómetros de profundidad y suele manifiestarse en 
la superficie antes de que ocurra la erupción (aumentos de la temperatura del gas y del 
suelo, cambio en los niveles de agua de pozos, deformación del terreno, muerte de 
animales por asfixia, tremor volcánico, etc.). Por el contrario, la mayor parte de los 
terremotos destructivos tienen su foco a profundidades no alcanzables por los 
instrumentos actuales. Las dificultades experimentales encontradas para la predicción de 
terremoto parecen, de momento, insalvables. Por un lado, nos encontramos con la 
imposibilidad de observar directamente la zona de preparación y generación del 
fenómeno (región sismogenética) [37]. Por otro lado, el parámetro geofísico de mayor 
interés, el nivel de estrés (debido a las tensiones internas en la corteza), no puede ser 
medido directamente. Plantear la imposibilidad de la predicción de terremotos también 
depende de otros aspectos: ¿han hecho lo suficiente los gobiernos para sufragar los 
costes de la investigación de estos fenómenos? La Sismología moderna es una ciencia 
reciente y la predicción está dando tan sólo sus primeros pasos. Para ello es preciso 
desplegar densas redes terrestres de sistemas GPS, usar técnicas de observación espacial 
(satelital) como la interferometría de radar de apertura sintética (InSAR) e instalar 
estaciones geofísicas terrestres multivariables (sísmicas y geoquímicas, etc) con 
sistemas de comunicación automáticos y en tiempo real. Se trata, por tanto, de adoptar 
un enfoque plenamente multidisciplinar [33]. 
 
 
 16
5. Conclusiones 
 La Naturaleza es compleja per se. Pero es posible dar una descripción de su 
comportamiento empleando un lenguaje exacto como el de las Matemáticas. La 
aportación de la Ciencia Matemática en el campo de estudio de la Geofísica, y de la 
Sismología y de la Volcanología en particular, no se reduce a la mera introducción de 
fórmulas y ecuaciones más o menos inteligibles. A largo de esta exposición hemos 
presentado algunas de las aplicaciones matemáticas más importantes en la Sismología y 
Volcanología modernas, así como los nombres propios de los grandes científicos 
responsables de dichos desarrollos matemáticos en los últimos siglos. Juntamente con la 
evolución tecnológica acaecida en el último medio siglo (Tercera Revolución 
Tecnológica), en el que instrumentación científica y los sistemas de comunicaciones se 
han desarrollado enormemente, las Matemáticas están desempeñando una labor 
imprescindible en todas las disciplinas de la Geofísica moderna. No es posible 
axiomatizar los fenómenos sísmicos y volcánicos, esto es, los terremotos y las 
erupciones volcánicas. Ambos constituyen sistemas multivariables con un número 
elevado e indeterminado de grados de libertad. Sin embargo, el uso del lenguaje 
matemático permite expresar de una manera exacta y útil la información observacional 
que de estos fenómenos naturales obtienen los científicos. A partir de ella es posible 
elaborar modelos que los describan y nos permitan realizar pronósticos sobre su 
evolución futura [24, 34, 36, 45]. Sin duda, este es uno de los mayores retos que las 
sociedades modernas demandan a la comunidad geofísica internacional para minimizar 
y mitigar el impacto de los terremotos y las erupciones volcánicas. 
 
6. Reconocimientos 
 Deseo expresar mi gratitud al vicedecano y profesor de la Facultad de 
Matemáticas de la Universidad de La Laguna Dr. Rodrigo Trujillo por su invitación 
para impartir esta conferencia y por su apoyo incondicional. El sismograma del 
terremoto de Kamchatka fue cedido por el Dr. Serge Timashev, del Instituto Karpov de 
Físico-Química de la Academia de Ciencias de la Federación Rusa. Los datos de nivel 
de marea fueron cedidos por Yoshiaki Tamura, del National Astronomical Observatory, 
y Makio Ishiguro, del Institute of Statistical Mathematics, Japón. 
 17
7. Referencias 
 
[1] Agustín Uías y Julio Mézcua, “Fundamentos de Geofísica”, Alianza Universidad, 1997. 
[2] Andre G. Journel, “Fundamentals of Geostatistics in Five Lessons”, Short Course in Geology: 
volume 8, American Geohysical Union, 1989. 
[3] Margaret Armstrong, “Basic Linear Geostatistics”, Springer, 1998. 
[4] Noel A. C. Cressie "Statistics for Spatial Data", Wiley-Interscience, 1991. 
[5] Jean Paul Chilès y Pierre Delfiner, “Geostatistics: modeling spatial uncertainty”, Wiley Series in 
Probability and Statistics, John wiley & Sons, 1999. 
[6] Edward H. Isaaks y R. Mohan Srivastava, "An Introduction to Applied Geostatistics", Oxford 
University Press, 1989. 
[7] J. M. L. Salazar, P. A. Hernández, N. M. Pérez, G. Melián, J. Álvarez y K. Notsu, “Diffuse 
emission of carbon dioxide from Cerro Negro volcano, Nicaragua, Central America”, 
Geophysical Research Letters, 28, 4275-4278, 2001. 
[8] Chris Chatfield, “The analysis of time series: an introduction”, Chapman & Hall/CRC, 5ª 
edición, 1996. 
[9] Alan V. Oppenheim, Ronald W. Schafer y John R. Buck, “Tratamiento de señales en tiempo 
discreto”, Prentice Hall, 2000. 
[10] Alan V. Oppenheim, Alan S. Willsky y Ian T. Young, “Señales y Sistemas”, Prentice Hall, 1983. 
[11] B. Chouet, “A seismic model for the source of long-period events and harmonic tremor”, en 
Gasparini et al. (editores.), Volcanic Seismology, IAVCEI Proceedings in Volcanology 3, 
133-156, 1992. 
[12] Jr. A. S. Ryall y F. Ryall, “Spasmodic tremor and possible magma injection in Long Valley 
caldera, eastern California”, Science, 219, 4591, 1432-1433, 1983. 
[13] Stéphane Mallat, “A wavelet tour of signal processing”, segunda edición, Academic Press, 1999. 
[14] Ingrid Daubechies, “Ten lectures on wavelets”, CBMS-NSF Regional Conference Series in 
Applied Mathematics 61, 1992. 
[15] Efi Foufoula-Georgiou y Praven Kumar (editors), “Wavelets in Geophysics”, Academic Press, 
1994. 
[16] J. M. L. Salazar, N. M. Pérez, P. A. Hernández, T. Soriano, F. Barahona, R. Olmos, R. 
Cartagena, D. L. López, R. N. Lima, G. Melián, I. Galindo, E. Padrón, H. Sumino y K. 
Notsu, “Precursory diffuse carbon dioxide degassing signature related to a 5.1 magnitude 
earthquake in El Salvador, Central America”, Earth and Planetary Science Letters, 205/1-2, 
81-89, 2002 
[17] George E. P. Box, Gwilym M. Jenkins y Gregory C. Reinsel, “Time Series Analysis: forecasting 
and control”, tercera edición, Prentice Hall, 1994. 
[18] D. Granieri, G. Chiodini, W. Marzocchi, R. Avino, “Continuous monitoring of soil CO2 diffuse 
degassing at Phlegraean Fields (Italy): influence of environmental and volcanic parameters”, 
Earth and Planetary Science Letters, 212, 167-179, 2003. 
[19] Y. Tamura, T. Sato, M. Ooe and M.Ishiguro, “A Procedure for Tidal Analysis with a Bayesian 
Information Criterion”, Geophysical Journal International, 104, 507-516, 1991. 
[20] M. Ishiguro y Y. Tamura, “BAYTAP-G in TIMSAC-84”, Computer Science Monographs, 22, 
Institute of Statistical Mathematics, 1985. 
[21] V. Vapnik, “The Nature of Statistical Learning Theory”, Springer-Verlag, New York, 1995. 
[22] Benoît B. Mandelbrot, “La geometría fractalde la Naturaleza”, Tusquets editores, 2ª edición, 
2003. 
[23] Benoît B. Mandelbrot, “The fractal geometry of nature”, W. H. Freeman and Company, 1983. 
[24] P. Bak, C. Tang y K. Wiesenfeld, “Self-organized criticality”, Phys. Rev. A, 38, 364-374, 1988. 
[25] Donald L. Turcotte, “Fractals and Chaos in Geology and Geophysics”, segunda edición, 
Cambridge University Press, 1997. 
[26] Stefan Hergarten, “Self-organized Criticality in Earth Systems”, Springer, 2002. 
[27] A. V. Descherevsky, A. A. Lukk, A. Ya. Sidorin, G. V. Vstovsky y S. F. Timashev, “Flicker-
noise spectroscopy in earthquake prediction research”, Natural Hazard and Earth System 
Sciences, 20, 1-6, 2002. 
[28] W. P. Irwin y I. Barnes, “Tectonic relations of carbon dioxide discharges and earthquakes”, J. 
Geophys. Res. 85, 3115-3121, 1980. 
[29] T. Gold, S. Soter, “Fluid ascent through the soil lithosphere and its relation to earthquakes”, Pure 
Appl. Geophys. 122, 493-530, 1984/85. 
[30] E. A. Roeloffs, “Hydrologic precursors to earthquakes: a review”, Pure App. Geophys., 126, 
177-209, 1988. 
[31] P. G. Silver, H. Wakita, “A search for earthquake precursors”, Science 273, 77-78, 1996. 
 18
 19
[32] J.-P. Toutain y C.-J. Barbon, “Gas geochemistry and seismotectonics: a review”, 
Tectonophysics, 304, 1-27, 1999. 
[33] D. Sornette, “Towards a truly interdisciplinary approach to earthquake prediction”, Nature, 
webpage: debate (http://helix.nature.com/debates/), 1999. 
[34] R. J. Geller, D. D. Jackson, Y. Y. Kagan, F. Mulargia, “Earthquakes cannot be predicted”, 
Science, 275, 1616-1617, 1997. 
[35] R. J. Geller, “Earthquake prediction: a critical review”, Geophys. J. Int., 131, 425-450, 1997. 
[36] Max Wyss, “Cannot earthquakes be predicted?”, Science, 278, 487-488. 
[37] Max Wyss, “Why is earthquake prediction research not progressing faster?”, Tectonophysics 
338, 217-223. 
[38] Pascal Bernard, “From the search of ‘precursors’ to the research on ‘crustal transients’”, 
Tectonophysics, 338, 225-332, 2001. 
[39] M. Wyss (editor), “Evaluation of proposed earthquake precursors”, American Geophysical 
Union, 1991. 
[40] Immanuel Kant, “Crítica de la razón pura”, Prólogo, traducción, notas e índices por Pedro Ribas, 
Alfaguara, 2000. 
[41] David W. Simpson y Paul G. Richards, “Earthquake prediction: an international review”, 
Maurice Ewing Series 4, American Geophysical Union, 1981. 
[42] Max Wyss y Renata Dmowska (editores), “Earthquake prediction – state of the art”, Pageoph 
topical volumes, Birkhäuser, 1997. 
[43] H. Sigurdsson (editor), “Encyclopedia of Volcanoes”, Academic Press, 2000. 
[44] Roberto Scarpa y Robert I. Tilling (editores), “Monitoring and Mitigation of Volcano Hazards”, 
Springer, 1996. 
[45] Andreas S. Weigend y Neil A. Gershenfeld (editores), “Time Series Prediction: forecasting the 
future and understanding the past”, Santa Fe Institute Series, Addison Wesley, 1994.

Continuar navegando