Logo Studenta

Invariancia-de-escala-acercamiento-al-caos

¡Este material tiene más páginas!

Vista previa del material en texto

POSGRADO EN CIENCIAS FÍSICAS
 
 T E S I S 
 QUE PARA OBTENER EL GRADO DE:
 MAESTRO EN CIENCIAS (FÍSICA)
PRESENTA:
 CANDELARIO HERNÁNDEZ GÓMEZ
DIRECTOR DE TESIS: DR. ALEJANDRO FRANK HOEFLICH
CODIRECTOR DE TESIS: JUAN CARLOS LÓPEZ VIEYRA
MIEMBROS DEL COMITÉ TUTORAL: 
DR. OCTAVIO CASTAÑOS GARZA 
DRA. ROCIO JÁUREGUI RENAUD
MÉXICO, D.F. AGOSTO 2012 
UNIVERSIDAD NACIONAL AUTONOMA
DE MEXICO
 “INVARIANCIA DE ESCALA: 
UN ACERCAMIENTO AL CAOS”
 
UNAM – Dirección General de Bibliotecas 
Tesis Digitales 
Restricciones de uso 
 
DERECHOS RESERVADOS © 
PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL 
 
Todo el material contenido en esta tesis esta protegido por la Ley Federal 
del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). 
El uso de imágenes, fragmentos de videos, y demás material que sea 
objeto de protección de los derechos de autor, será exclusivamente para 
fines educativos e informativos y deberá citar la fuente donde la obtuvo 
mencionando el autor o autores. Cualquier uso distinto como el lucro, 
reproducción, edición o modificación, será perseguido y sancionado por el 
respectivo titular de los Derechos de Autor. 
 
 
 
Agradecimientos
Varias etapas han sucedido a lo largo de la elaboración de éste trabajo,
y quiero agradecer a todas las personas que estuvieron involucradas en ellas.
A mis profesores:
En primer lugar, y antes de haber empezado esta tesis, debo decir que
tuve excelentes profesores durante mi estancia en el Posgrado en Ciencias
F́ısicas, y aunque personalmente ya he agradecido a algunos de ellos, creo
que es éste un lugar para hacerlo de nuevo.
En particular quiero agradecer a mis profesores con quienes tomé cla-
ses. A los doctores Luis de la Peña, Rafael Pérez Pascual, Roćıo Jáuregui,
Carmen Varea y Alejandro Frank. A los miembros de mi comité tutoral que
estuvo integrado por los doctores Alejandro Frank, Juan Carlos López Viey-
ra, Octavio Castaños y Roćıo Jáuregui. Al Dr. Alberto Robledo quien me
recibió como oyente durante un semestre en su seminario de sitemas com-
plejos en el Instituto de F́ısica.
Debo decir que sigo creyendo que fueron la mejor elección de profesores
y tutores que pude hacer, y que la UNAM es la mejor universidad que pude
elegir para estudiar mi posgrado.
i
ii AGRADECIMIENTOS
A mis amigos:
En el posgrado, tanto Irving Morales como Emmanuel Landa fueron más
que compañeros. Ellos han llegado a ser expertos en los temas de esta tesis
y muchas ideas aportaron a ella. Fue un gusto compartir juntos este tiempo.
En la casa de estudiantes Carlos A. Madrazo Becerra, tengo varios ami-
gos. A ellos agradezco la hospitalidad con la que siempre me trataron. Todos
los compañeros que he conocido han llegado a ser como de mi familia. A to-
dos los recuerdo. Sin embargo, seŕıa injusto no mencionar por lo menos a
Juan Armando Velazco, que me recibió con una gran amabilidad y desde
el principio me dio su amistad y confianza, a Marcos Montiel, que fue la
persona con quien más tiempo compart́ı y al que siempre le ha dado mucho
gusto que me vaya bien, y también a Bartolo Vicente, que ha sido un ex-
celente amigo y que además me ayudó a escribir la primer versión de ésta
tesis cuando teńıa un tiempo ĺımite para entregarla.
AGRADECIMIENTOS iii
A mis revisores:
Al Dr. Jose Barea con quien escrib́ı algunos de los primeros códigos en
Mathematica y discut́ı algunas cuestiones acerca de el caos cuántico y la
f́ısica nuclear. Aunque finalmente no formó parte del grupo de sinodales, le
agradezco desde aqúı por toda su ayuda.
A los doctores Vı́ctor Velázquez y Ruben Fossion, quienes estuvieron
conmigo en la preparación del experimento del grifo goteante en la Facultad
de Ciencias. También dedicaron tiempo de su agenda para revisar este tra-
bajo y hacerme varias observaciones y cuestionamientos importantes. El Dr.
Velázquez aportó de manera gentil los datos de Shell Model para el 48Ca, que
se emplearon para llevar a cabo los cálculos que se presentan en el Caṕıtulo 5.
Al Dr. Jorge Bernal quien ha sido siempre, desde que lo conoćı, más un
amigo que un maestro, y gracias a él, en buena medida, llegué por primera
vez a este Instituto. Le agradezco en particular haber revisado esta tesis.
iv AGRADECIMIENTOS
A mis directores de Tesis:
El Dr. Juan Carlos López Vieyra quien ha pasado muchas horas traba-
jando conmigo en éstas páginas, revisando cada ĺınea y haciendo un trabajo
de edición muy importante con la primera versión que yo presenté. He lle-
gado a admirar su dedicación al trabajo y lo escrupuloso que puede ser a
la hora de hacer cŕıticas. Fue capaz de eliminar páginas enteras porque no
lo dejaron satisfecho. Las puertas de su oficina siempre estuvieron abiertas
para mı́, a pesar de que estaba atendiendo siempre una gran cantidad de
tareas. A lo largo de estos años de convivencia ha llegado a ser un gran amigo.
Al Dr. Alejandro Frank quien me recibió alguna vez en un verano de la
investigación cient́ıfica, y quien a partir de ese d́ıa me dió la oportunidad de
participar en sus reuniones semanales con sus grupos, siempre numerosos,
de colaboradores. Ha sido muy importante para mi formación el poder estar
con él y apreciar su calidad como investigador y como persona. Siempre me
ha sorprendido que en medio de mil reuniones y compromisos, sea capaz
de dar luz sobre problemas que apenas acaba de conocer. Su idea de ata-
car primero la caricatura, antes que el problema completo, se ha quedado
grabada en mı́ hasta hoy, y la recuerdo cada vez que voy a escribir algún
programa. Sobra decir que fue más que un asesor para mı́ y que en verdad,
sin su apoyo, dif́ıcilmente habŕıa conclúıdo esta tarea. Más de una vez tuvo
que hacer trabajo que iba más allá de su labor como tutor, desde conce-
derme una beca de ayudante de investigador hasta gastar muchos pesos en
llamadas para localizarme.
AGRADECIMIENTOS v
A mi familia:
A mis padres,
Luis Hernández Morales y Maŕıa Ysidra Gómez León,
quienes siguen siendo las personas más importantes de mi vida. Si hay
alguna virtud en mı́, es porque la he aprendido de ellos.
A mis hermanos:
Ricardo, Margarita y Ana Cristina,
porque junto a ellos he pasado los mejores momentos de mi vida.
A mi Abuelo,
Álvaro Hernández Ramos.
Si este trabajo correspondiera con su grandeza, lo dedicaŕıa a su memo-
ria. A pesar de que nunca oyó una palabra de estos temas, no deja de ser
una de las personas mas sabias y sensatas que he conocido.
Resumen
En este trabajo se estudia la presencia de ruido 1/f como una
caracteŕıstica propia de los fenómenos caóticos en sistemas
clásicos y cuánticos. El estudio se lleva a cabo a través del
análisis de series de tiempo asociadas a dichos fenómenos.
Se analizan las series de tiempo para las fluctuaciones del
espectro de enerǵıas del núcleo de 48Ca, y las series de tiempo
asociadas con el mapeo loǵıstico y el grifo goteante. Todos
estos casos presentan caos. Aunque no se ha establecido la
presencia de ruido 1/f en los casos clásicos, se ha visto que
1/f está presente en los puntos de transición regularidad-
caos.
Abstract
In this work we study the presence of 1/f noise as a com-
mon feature of classical and quantum systems which charac-
terises chaotic phenomena. The study is carried out through
the analysis of time series associated with such phenomena.
Time series of the fluctuations in the energy spectrum of
48Ca, and time series associated with the logistic map and
the dripping faucet are analysed. All these phenomena exhi-
bit a chaotic behaviour. Though it was not possible to esta-
blish the presence of 1/f in classical chaotic systems, it has
been observed that 1/f is present in the points of transition
between regular-chaotic regimes.
vii
Índice general
Agradecimientos i
Agradecimientos v
Resumen ix
Prefacio xiii
Caṕıtulo 1. Conceptos básicos y ejemplos del caos clásico. 1
1. Sensibilidad fuerte a las condicionesiniciales 1
2. Comportamiento en el espacio fase 4
3. Para buscar el caos 9
4. Conclusión 19
Caṕıtulo 2. Invariancia de Escala 21
1. Leyes de potencias 21
2. Fractales 22
3. Fenómenos Cŕıticos y Correlaciones de Largo Alcance 28
Caṕıtulo 3. Conceptos del Caos Cuántico 31
1. Teoŕıa de Matrices Aleatorias 31
2. Espaciamiento de niveles 31
2.1 Distribución de Poisson 32
2.2 La conjetura de Wigner 32
Caṕıtulo 4. Series de Tiempo de las Fluctuaciones del Espectro
Cuántico 43
1. Conjetura de Relaño 43
Caṕıtulo 5. Caos en el Espectro Nuclear e invariancia de escala 57
1. Fractalidad e invariancia de escala 1/f 58
2. Series de tiempo de las fluctuaciones del espectro nuclear 59
3. Resultados 59
4. Conclusiones del caṕıtulo 63
Caṕıtulo 6. Análisis del caos en el mapeo loǵıstico 69
1. En dónde buscar 75
Caṕıtulo 7. El grifo goteante 79
1. Experimento 79
ix
x Índice general
Caṕıtulo 8. Conclusiones 85
Apéndice A. Detrended Fluctuation Analysis 87
Apéndice B. Atractor de Lorenz 89
Apéndice C. Mapeo Loǵıstico 91
Apéndice D. Programa para calcular el exponente de Lyapunov en el
Mapeo Loǵıstico 95
Apéndice. Referencias 97
Prefacio
Se presenta aqúı algunos aspectos del caos, clásico y cuántico; se ana-
lizan algunos ejemplos y se pone especial énfasis en aquellas propiedades
que presentan invariancia de escala. El objetivo principal de este trabajo es
la búsqueda y exploración de esta noción (invariancia de escala) como un
concepto común que pueda caracterizar el caos clásico y sus manifestaciones
cuánticas. Se inicia el trabajo con una revisión de los principales indicado-
res del caos clásico en sistemas dinámicos: sensibilidad fuerte a condiciones
iniciales (efecto mariposa), mapas de Poincaré, espectro de frecuencias y
exponentes de Lyapunov. El caṕıtulo 2 trata el tema de la invariancia de
escala, fenómeno con el que se trabaja el resto de la tesis. A continuación,
caṕıtulo 3, se hace un breve repaso de las caracteŕısticas principales del caos
cuántico, como son la conjetura de Bohigas, la teoŕıa de matrices aleatorias
(RMT) etc. El caṕıtulo 4 hace un estudio de caso en el que se corrobora
la llamada conjetura de Relaño (que se refiere a la presencia de ruido 1/f
en el espectro de potencias de las fluctuaciones del espectro cuántico) en
los casos de los ensambles de la RMT, y en el estudio de los niveles de
enerǵıa del núcleo 48Ca en el capitulo 5. En el principio de este trabajo se
partió siguiendo en mucho esta conjetura. En el resto del trabajo se trató de
encontrar situaciones similares en otros sistemas caóticos clásicos. A esto se
refieren los caṕıtulos 6 y 7. En particular se trabaja con el caso del grifo
goteante, fenómeno propuesto por Rössler como ejemplo de ruta al caos por
intermitencia. También se analiza el mapeo loǵıstico, una aplicación senci-
lla en su definición aunque compleja en su comportamiento. A lo largo de
estos caṕıtulos se trata de hacer énfasis en la existencia de una invariancia
de escala manifiesta por medio de la presencia de ruido 1/f en las series de
tiempo asociadas.
xi
Caṕıtulo 1
Conceptos básicos y ejemplos del caos clásico.
Uno de los descubrimientos más importantes en la mecánica clásica es,
sin duda, el hecho de que existen sistemas dinámicos deterministas descritos
por ecuaciones diferenciales no-lineales los cuales exhiben comportamientos
muy sensibles a las variaciones en las condiciones iniciales denominados sis-
temas caóticos. Este comportamiento caótico puede encontrarse incluso en
sistemas dinámicos de pocos grados de libertad (como en el caso del proble-
ma de Kepler diamagnético) en donde las leyes de movimiento se conocen
exactamente y la evolución temporal del sistema se describe mediante ecua-
ciones diferenciales bien determinadas. La razón del comportamiento caótico
se encuentra en la inestabilidad de las órbitas debido a una alta sensibili-
dad de la evolución temporal respecto de las condiciones iniciales. En este
caṕıtulo daremos algunas definiciones básicas y ejemplos simples de sistemas
clásicos caóticos y de algunos de los métodos usados para su descripción y
caracterización.
1. Sensibilidad fuerte a las condiciones iniciales
Consideremos la ecuación de cáıda libre x(t) = x(0)+v(0)t+ 12gt
2 y sean
las condiciones iniciales x(0) = x0 ± a ; v(0) = v0 ± b, en donde a y b repre-
sentan los errores en la medición de la posición y velocidad iniciales, respec-
tivamente. Es posible entonces asegurar que x(t) = x0+v0t+
1
2gt
2±(a+bt).
Ocurre aqúı que las condiciones iniciales hacen crecer el error en la medi-
ción de manera lineal; dicho error puede hacerse más pequeño cuanto más
exactas sean las condiciones iniciales. El caso no es tan dif́ıcil de manejar en
la práctica ya que, si bien no de manera exacta, podremos calcular x(t) con
tantas cifras significativas como sea necesario. Sin embargo, es importante
tener el error en cuenta.
Ahora consideremos un movimiento más complicado, en donde una part́ıcu-
la está sujeta a la acción de un potencial repulsivo U = −12k x2 , con k =
const.; las ecuaciones de movimiento en este caso son: x(t) = x(0) cosh(hγt)+
v(0)
γ sinh(γt), con γ
2 = km (ver por ej. la Ref.[1]). De nuevo aqúı las condi-
ciones iniciales son x(0) = x0 ± a, v(0) = v0 ± b. En este caso, el error
crece de manera exponencial con los errores en las condiciones iniciales:
x (t) = x0 cosh(hγt) +
v0
γ sinh(γt)± [a cosh(γt) + b sinh(γt)]. La situación es
muy diferente a la del primer ejemplo. Las soluciones a las que llegamos
distan de manera extraordinaria una de otra dependiendo de los valores de
1
2 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
a y b. Esta caracteŕıstica fue observada por muchos cient́ıficos en diversos
sistemas f́ısicos descritos por ecuaciones diferenciales no lineales. Si un sis-
tema es tal que un pequeño cambio en las condiciones iniciales aumenta
exponencialmente en el tiempo, se dice que dicho sistema tiene sensibilidad
fuerte a las condiciones iniciales (SFCI).
1.1. El modelo de Lorenz. En 1963 el meteorólogo Edward Lorenz
del MIT encontró una alta sensibilidad a las condiciones iniciales, cuando
estudiaba un modelo predictor de un microclima modelado por el conjunto
de ecuaciones diferenciales autónomas [2]:
dx
dt
= −σx+ σy ,
dy
dt
= ρx− y − xz ,(1)
dz
dt
= −βz + xy .
Dicho problema modela las corrientes de convección de la atmósfera por
medio de anillos de aire caliente (figura 1.1). Después de proponer sus ecua-
ciones, Lorenz las simplificó bastante dejando sólo las caracteŕısticas prin-
cipales y la no linealidad. En el conjunto de ecuaciones (1) las variables
y las constantes tienen el siguiente significado: σ es el llamado número de
Prandtl (viscosidad/conductividad térmica), ρ es el número de Rayleigh
(discrepancia de temperatura entre las dos capas del sistema), β es la razón
longitud/altura del sistema a considerar, x es la rotación del anillo, y es el
gradiente de temperatura, y z es la desviación de la temperatura respecto a
su valor de equilibrio. Las soluciones numéricas del sistema (1) encontradas
por Lorenz distaban enormemente una de otra conforme evolucionaba el sis-
tema, aún cuando las condiciones iniciales difeŕıan en una diezmilésima, tal
como se muestra en la figura 1.2. El término efecto mariposa1, que usó Lo-
renz para llamar a este descubrimiento extraño, es popular para designar la
SFCI. El efecto mariposa puede observarse de las figuras 1.2, 1.3. En general
se observa cómo dos trayectorias que inician muy cerca una de otra con el
tiempo terminan muy separadas.
Tı́picamente el comportamiento caótico de los sistemas se encuentra res-
tringido sólo en un subconjunto del espacio fase. En los casos de mayor
interés, un gran número de diferentes condiciones iniciales conducen a órbitas
que se encuentran limitadas a una región caótica del espacio formando una
estructura fractal llamada atractor extraño. La figura1.3 muestra el atractor
extraño del modelo de Lorenz (1).
1Su nombre proviene de un antiguo proverbio chino: “el aleteo de las alas de una
mariposa se puede sentir al otro lado del mundo”.
1. SENSIBILIDAD FUERTE A LAS CONDICIONES INICIALES 3
Figura 1.1. Corrientes de convección de la atmósfera por
medio de anillos de aire caliente descritas por el modelo de
Lorenz (1).
-20
-15
-10
-5
 0
 5
 10
 15
 20
 0 5 10 15 20 25 30 35
x
time
Lorenz Attractor
Figura 1.2. Evolución temporal de la variable x del sistema
de ecuaciones de Lorenz (1) para el conjunto de parámetros
σ = 10, ρ = 28, β = 8/3. Las curvas difieren en las condicio-
nes iniciales en una diezmilésima, i.e. x0 = y0 = z0 = t0 =
0,0001 para una curva (en rojo), y x0 = y0 = z0 = t0 =
0,0002 para la otra (en azul).
1.2. Mapeo loǵıstico. Existen también sistemas simples que exhiben
caos sin estar relacionados con ecuaciones diferenciales. Tal es el caso del
mapeo loǵıstico, que describe el crecimiento de una población en el tiempo.
(2) xn+1 = rxn(1− xn) , r ∈ (1, 4) ⇒ x ∈ (0, 1) .
Este mapeo muestra un comportamiento caótico para valores del parámetro
de crecimiento r > 3,57. Véase la figura 1.4. Este mapeo se analiza con mas
detalle en el Apéndice C.
4 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
x y
z
0
15
25
35
45
20 10
0 −10
−20
−55
15
−15
Atractor de Lorenz
Figura 1.3. El atractor de Lorenz correspondiente a la
solución del sistema de ecuaciones (1) para el conjunto de
parámetros σ = 10, ρ = 28, β = 8/3. Las trayectorias se ob-
tuvieron con el programa de cómputo descrito en el Apéndice
B.
5 10 15 20 25 30 35
0.2
0.4
0.6
0.8
xn
n
Figura 1.4. Gráficas de los primeros 35 valores xn del ma-
peo loǵıstico (2) con r = 3,9 para dos valores iniciales x0, x
′
0
distintos (x0, x
′
0 ∈ (0, 1)) que difieren en 0.000001.
2. Comportamiento en el espacio fase
Para revelar el comportamiento caótico de los sistemas dinámicos es
necesario hacer un estudio de la órbitas en el espacio fase correspondiente.
Para introducir los conceptos básicos comencemos con un caso simple: el
péndulo. La ecuación de movimiento para la coordenada θ (el único grado
de libertad relevante del sistema) es
(3)
d2θ
dt2
+
g
l
sin θ = 0 ,
2. COMPORTAMIENTO EN EL ESPACIO FASE 5
la cual puede escribirse como un par de ecuaciones autónomas:
θ̇ = ω ,(4a)
ω̇ = −g
l
sin θ ,(4b)
donde se ha introducido la velocidad angular ω ≡ θ̇. Igual que el conjunto
(1), este sistema de ecuaciones sólo involucra derivadas de primer orden
no lineales, esto es, la fuerza que actúa sobre el péndulo no es directamente
proporcional al ángulo que forma éste con la vertical apuntando en dirección
al campo gravitacional. Resolver exactamente la ecuación (3) es complicado
y requiere de funciones eĺıpticas. La ecuación (4b) es una ecuación no lineal
y no puede resolverse en términos de funciones elementales; el peŕıodo del
péndulo está dado por
(5) T = 4
√
l
g
∫ π
2
0
dϕ
√
1− k2 sin2 ϕ
, k = sin
θ0
2
,
en donde la integral es llamada eĺıptica de primera clase; resolviendo se
obtiene
(6) T = 2π
√
l
g
[
1 +
(
1
2
)2
k2 +
(
1,3
2,4
)2
k2 +
(
1,3,5
2,4,6
)2
k6 + . . .
]
Por ello, para fines prácticos se usa la aproximación de ángulos pequeños
sin θ ≃ θ, y la ecuación (3) se convierte en una ecuación lineal
(7)
d2θ
dt2
+
g θ
l
= 0 ,
cuyas soluciones son
(8) θ = A sin
√
g
l
t+B cos
√
g
l
t , ω =
√
g
l
,
y el peŕıodo es
(9) T = 2π
√
l
g
=
2π
ω
,
una fórmula práctica, válida únicamente para ángulos pequeños.
En problemas bastante más complicados, en donde no es posible cono-
cer las soluciones exacta y cuantitativamente, se puede avanzar bastante si
se conocen las caracteŕısticas fundamentales de manera cualitativa usando
diagramas sencillos llamados diagramas fase. Por ejemplo, el péndulo simple
es un sistema cuyo Hamiltoniano es
(10) H =
1
2I
J2 +mgl (1− cos θ) ,
donde J = Iω es el momento angular con I el momento de inercia del sistema
I = ml2. Las trayectorias del péndulo ideal en el espacio fase se muestran en
6 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
−8
−6
−4
−2
2
4
6
8 ω
−π −2 −1 1 2 π
θ
Figura 1.5. Trayectorias en el espacio fase del péndulo
descrito por el Hamiltoniano de la ec. (10) para m = 1, l =
1, g = 10.
la figura 1.5; en esta figura puede verse que las trayectorias en el espacio fase
son cerradas para amplitudes de oscilación menores que |π|. Esta amplitud
máxima constituye el punto de separación de las trayectorias de no retorno
para las oscilaciones del péndulo. Arriba de esta amplitud máxima, esto es,
cuando se aplica una enerǵıa mayor a la enerǵıa potencial en el extremo más
alto θ = π, el péndulo gira de manera indefinida en una sola dirección.
Observando el espacio fase de la figura 1.5, nos damos cuenta de que los
puntos θ = −π y θ = π aparecen separados y distantes cuando en realidad
son uno mismo. Corresponden a la posición en la que el péndulo se halla
verticalmente sobre la varilla en un equilibrio inestable, este punto es único
independientemente de cómo se haya llegado a él, girando a la derecha o
a la izquierda. Ocurre porque se trata de mapear ángulos, que residen en
un circulo, a números, que residen en una recta. En realidad -π y π son lo
mismo que −2π, 2π; −3π, 3π; . . . ,−nπ, nπ. Del otro lado, sin embargo, en el
eje ω, la situación es diferente. No es necesario unir los extremos verticales
del dibujo. Enrollando pues, el diagrama fase del péndulo simple se obtiene
la figura 1.6.
Una forma más clara de ver las enerǵıas mencionadas es la siguiente: si
se dobla el tubo alargado que se ha constrúıdo (figura 1.6) en forma de U
mapeando el origen (0, 0) al fondo del tubo se distingue de inmediato (figura
1.7) el mı́nimo de enerǵıa, la existencia de la trayectoria de no retorno y la
forma bifurcada en la que se puede crecer indefinidamente en la enerǵıa. Se
observa también cómo en los estados bajos hay curvaturas que corresponden
a mı́nimos y máximos de θ y ω. Esto es porque el rango de enerǵıas en las que
se encuentran es menor a la enerǵıa potencial del péndulo en π. A medida
que se da un impulso más y más fuerte al péndulo, la enerǵıa es muy grande
comparada con dicha enerǵıa potencial, la cual llega a ser despreciable y las
2. COMPORTAMIENTO EN EL ESPACIO FASE 7
Figura 1.6. Trayectorias en el espacio fase del péndulo
descrito por el Hamiltoniano de la ec. (10) para m = 1, l =
1, g = 10. El punto sobre la curva azul (la última trayectoria
cerrada de la figura 1.5) representa el punto θ = ±π.
trayectorias en los cuernos de la U crecen de forma cont́ınua hasta el infinito
acercándose más a una forma circular, donde los movimientos giratorios son
cada vez más rápidos.
2.1. Teorema de Liouville. El ejemplo anterior pone de manifiesto
la importancia del espacio fase como auxiliar para entender comportamientos
de problemas de dif́ıcil solución anaĺıtica. Un resultado interesante relaciona-
do con este espacio es el teorema de Liouville. En los sistemas dinámicos, la
evolución temporal de cualquier región en el espacio fase conduce en general
a otra región de forma diferente. Para los sistemas dinámicos conservativos,
como el caso del péndulo simple (10), el teorema de Liouville afirma que,
a pesar de la traslación y el cambio de forma, el “volumen” total de cual-
quier región en el espacio fase permanecerá invariante en el transcurso del
tiempo. Dicho de otro modo, la evolución temporal de una ”nube”de puntos
en el espacio fase, al desplazarse sobre la trayectoria de cada uno de sus
puntos mediante una transformación canónica, cambiará de forma y posi-
ción, aunque mantendrá su volumen total, como si se tratara de un fluido
8 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
Figura 1.7. Representación del espacio fase del péndulo
simple en una geometŕıa más conveniente en donde se separan
las trayectoriasabiertas en un par de ciĺındros (arriba) y
cerradas (abajo). El punto θ = ±π se encuentra en el punto
de bifurcación (c.f. figura 1.6).
incompresible. El teorema puede expresarse en términos del paréntesis de
Poisson como
∂ρ
∂t
= −{ ρ,H } ,
en donde ρ es la densidad de puntos en el espacio fase.
Por otro lado, en el caso de sistemas no conservativos, como el caso de
un péndulo con fricción, el volumen en el espacio fase se contrae, esto es, se
trata de sistemas disipativos. El sistema de Lorenz (1) tampoco cumple con
el teorema de Liouville. Sistemas disipativos como estos pueden ser atráıdos
de manera automática hacia un punto fijo, hacia un ciclo ĺımite o puede
bifurcarse en el espacio fase en tanto éste se contrae.
2.2. Poincaré y el problema de tres cuerpos. A fines del siglo
XVIII, la reformulación de la mecánica newtoniana haćıa afirmar a Laplace
que si se conociera la velocidad y la posición de todas las part́ıculas del uni-
verso en un determinado instante en el tiempo, entonces se podŕıa predecir
el futuro y averiguar el pasado. Naturalmente, y por razones filosóficas, el
problema desconcertó a muchos, hasta que, a principios del siglo XX con el
advenimiento de la mecánica cuántica, quedó en evidencia la ilusión: no es
posible conocer la posición y la velocidad de una part́ıcula al mismo tiem-
po. En este caṕıtulo se han analizado problemas en las cuales se demuestra
que, aún dentro del marco teórico de la f́ısica clásica, existen situaciones en
las que una variación pequeña en las condiciones iniciales basta para hacer
diverger las trayectorias de los sistemas en el espacio fase. Más aún, estos
sistemas son la regla y no la excepción en la naturaleza.
3. PARA BUSCAR EL CAOS 9
La evolución histórica de la mecánica ha estado marcada por los estu-
dios a los que se ha aplicado. Newton, igual que Laplace y los mecánicos del
siglo XIX la aplicaron principalmente a la astronomı́a. Este interés condujo
al problema de los tres cuerpos que se hab́ıa mantenido irresoluble. A finales
del siglo XIX Henri Poincaré se vio atráıdo a él por una cuestión planteada
en 1887 por el rey Oscar II de Suecia quien instituyó una competencia ma-
temática cuyo objetivo era contestar a la pregunta ¿es el Sistema Solar un
sistema estable?, ó ¿podŕıa en el futuro la Tierra o algún otro planeta des-
prenderse o colisionar? Poincaré señaló entonces que el problema no hab́ıa
sido planteado correctamente, y que de esa forma nadie lograŕıa obtener
una solución completa para el mismo. Su trabajo fue tan notable, que el
jurado decidió otorgarle el premio. La conclusión principal de Poincaré esta-
blećıa que la evolución de un sistema como el problema de los tres cuerpos
era extremadamente caótica, en el sentido que una pequeña perturbación
en el estado inicial (como por ejemplo una mı́nima variación en la posición
inicial de un cuerpo) pod́ıa llevar eventualmente a un estado radicalmente
diferente.
A su ensayo de 1890 sobre el tema, Poincaré lo tituló “El problema de los
tres cuerpos y las ecuaciones de la dinámica”. En su informe, Poincaré plan-
teaba nuevas ideas matemáticas que hoy se consideran los comienzos de la
teoŕıa del caos. En el mencionado problema se supone que sólo existen en el
universo tres cuerpos sujetos a la fuerza gravitacional. En particular esta es
la situación en la que la masa de dos de tales cuerpos es aproximadamente
igual y bastante más grande que la del tercero, de forma que éste último
es una pequeña part́ıcula (modelo de Hill de 1877). En ese caso los dos pri-
meros giran periódicamente alrededor de su centro de masa en tanto que el
tercer cuerpo es llevado de manera errática de uno a otro lado por el campo
cambiante de sus compañeros gigantes. Poincaré toma el sistema en un de-
terminado punto en el espacio fase, y observa que, si en un instante futuro el
sistema está exactamente en el mismo punto, la unicidad de las ecuaciones
diferenciales que gobiernan su evolución implica que el movimiento es pe-
riódico. Con esta idea, el problema de investigar toda la dinámica se reduce,
a estudiar la “vecindad” de ciertas condiciones iniciales. Esta “vecindad” es
llamada Superficie de Sección de Poincaré (SSP).
3. Para buscar el caos
Los matemáticos han desarrollado diferentes formas para establecer de
manera cuantitativa cuándo un sistema es caótico. Ejemplos de estas formas
son, la dimension fractal de los atractores, los exponentes de Liapunov, ma-
peos de retorno, mapeos de Poincaré, diagramas de bifurcación, etc. (veáse
por ejemplo la Ref. [1]).
Por otra parte, el teorema de integrabilidad de Liouville afirma que:
“Un sistema dinámico con n grados de libertad cuyo hamiltoniano H (q, p)
10 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
no depende expĺıcitamente del tiempo, y con n cantidades conservadas in-
dependientes Fk (q, p), k = 1, 2, . . . n, cuyos paréntesis de Poisson son nulos
i.e. {Fi , Fj} = 0, i, j = 1, . . . n, es resoluble por cuadraturas”. Es este un
teorema de existencia que no nos dice cómo encontrar las cantidades con-
servadas. En todo caso estos problemas son regulares. ¿Qué pasa si no se
tiene la certeza acerca de esto? Una solución numérica es posible. Un siste-
ma dinámico puede darnos un conjunto de puntos (t0, x (t0)) , (t1, x (t1)) , ...
(tn, x (tn)) que se podŕıa analizar como una serie de tiempo. ¿Conduciŕıa
esto a alguna parte? Definitivamente: en el estudio de señales se ha aplicado
con éxito el análisis de Fourier y es lo que se hace también aqúı en esta Tesis.
3.1. Espectro de Potencias. Definición
La transformada de Fourier de una función continua f(t) se define como
(11) f(ν) ≡ Ft[f(t)](ν) =
∫ +∞
−∞
f(t) e−2πiν t dt ,
en donde usualmente la variable t se interpreta como el tiempo, y a ν como
la frecuencia. La transformada de Fourier (11) es una representación de la
función f(t) en el espacio de frecuencias, es decir en términos de una super-
posición cont́ınua de funciones periódicas. Se puede hacer una generalización
al caso de una función discretizada, f(t) → f(tn) ≡ fn con tn ≡ n∆t, con
n = 0, ..., N − 1 (a ∆t se le denomina intervalo de muestreo). La transfor-
mada discreta de Fourier de la serie de tiempo {f0, ...fN−1} viene dada por
la secuencia {F0, ...FN−1}, en donde
(12) Fk =
N−1
∑
n=0
fn e
−2πi k n /N , k = 0 . . . N − 1 .
La transformada inversa esta definida por
(13) fn =
1
N
N−1
∑
k=0
Fk e
2πin k /N , n = 0 . . . N − 1 .
Las transformadas de Fourier discretas son muy útiles porque revelan
periodicidades en los datos de entrada, asi como también de las intensida-
des relativas de cualquier componente periodica. En general, la transformada
discreta de Fourier de una secuencia de números reales {f0, ...fN−1; fi ∈ R} ,
será una secuencia (de la misma longitud) de números complejos
{F0, ...FN−1; Fi ∈ C}. En particular si los valores fk son reales, entonces
FN−n y Fn estan relacionadas por FN−n = F
∗
n , para n = 0, 1, ..., N − 1,
en donde z∗ denota el complejo conjugado. Esto significa que la componen-
te F0 (DC-term, término de corriente directa, en la jerga de los ingenieros
electrónicos) siempre es real para datos reales. Como resultado de la relación
anterior, la transformada de Fourier de una función real periodica tendrá pi-
cos no en un solo lugar, sino por pares. Esto ocurre porque los periodos de
los datos de entrada se dividen en componentes complejas de frecuencias
“positivas” y “negativas”.
3. PARA BUSCAR EL CAOS 11
−1.5
−1
−0.5
0
0.5
1
1.5
100 200 300 400
fn
n
−4
−3
−2
−1
0
1
2
3
4
100 200 300 400
fn
n
(a) (b)
0
20
40
60
80
100
50 100 150 200
P (k)
k
0
20
40
60
80
100
50 100 150 200
P (k)
k
(c) (d)
Figura 1.8. Series f(n) correspondientes a un movimiento
periódico (a) y a un movimiento cuasi-periódico (b) y sus
correspondientes espectros de potencias P (k), en (c) y (d).
El espectro de potencias P (k), nos da la intensidad con la queinterviene
el término con frecuencia k en la representación de Fourier {Fk, k = 0 . . . N−
1}, y esta definido por:
(14) P (k) = |Fk|2 , k = 0 . . . N − 1.
El análisis espectral nos dice cómo se comporta el sistema:
1. El caso más sencillo es aquel en el cual existe una periodicidad en la
serie de tiempo {f0, f1...fN−1} la que corresponde a una frecuencia
k(i) (ω(i)). En la figura 1.8a puede verse graficado este caso. De un
lado se muestra la gráfica f(t) contra t. Siendo buen observador se
puede decir que el movimiento es periódico, como en realidad lo
confirma la gráfica 1.8c correspondiente al espectro de potencias.
Aqúı no hay mayor complicación, podŕıa tratarse del movimiento de
la Tierra alrededor del Sol o el de la Luna o cualquier otro satélite
alrededor de la Tierra.
2. El siguiente caso es el movimiento cuasiperiódico, es decir un movi-
miento con n frecuencias k(1), k(2), . . . k(n), (ω(1), ω(2), . . . ω(n)). Su
espectro de potencias mostrará frecuencias de la forma ω = m1ω1 +
m2ω2 + . . .+ mrωr, las cuales pueden ser muy complicadas. Casos
12 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
f́ısicos suelen presentar de manera más importante un número me-
nor de frecuencias, ante las cuáles es posible despreciar a las otras.
Sea el caso biperiódico con ω = m1ω1 + m2ω2. En este caso si
ω1
ω2
es racional, el movimiento es periódico y el periodo es un múltiplo
de ω1 y ω2. Si por el contrario
ω1
ω2
es irracional el movimiento no
se repite nunca, aunque se acerca a los periodos aproximados, frac-
ciones próximas a ω1ω2 . En la figura 1.8b se muestra la gráfica de un
movimiento cuasiperiódico y su espectro de potencias en 1.8d.
3. Otro tipo de movimiento es el llamado aperiódico. No tienen una
frecuencia dominante sino más bien presentan un cont́ınuo que pue-
de variar con dependencia en k. En la figura 1.9 se muestra el caso
ilustrativo de la transición de un sistema regular a cuasiperiódico
y caótico. Este ejemplo presenta la convección de Bénard con una
variación del parámetro de Rayleigh, que indica la diferencia de tem-
peraturas entre las placas superior e inferior en el sistema que se
analiza.
3.2. Atractores y mapas de Poincaré. Poincaré hab́ıa rea-
lizado el análisis del comportamiento de las soluciones a ecuaciones
diferenciales en dos dimensiones. El teorema de Poincaré-Bendixson
nos dice que el comportamiento de dichos sistemas es tal que si se
sigue sobre una trayectoria del espacio fase correspondiente a ciertas
condiciones iniciales, se llegará invariablemente a uno de los siguien-
tes casos: a un sumidero, a una fuente, a una silla de montar, o a
un ciclo ĺımite, si bien, son posibles comportamientos extraños en
casos aislados. En esencia la forma en que se comportan los sistemas
en dos dimensiones es esa. Poincaré no pudo demostrar que ese era
el comportamiento t́ıpico para sistemas en más dimensiones. Final-
mente después de casi un siglo después de Poincaré, el matemático
estadounidense Stephen Smale a principios de la década de 1960 de-
mostró que en sistemas de dimensiones mayores a dos, exist́ıan otros
comportamientos denominados atractores extraños. Este es el caso
del modelo de Lorenz descrito por las ecuaciones diferenciales (1). El
sistema de ecuaciones de Lorenz modela las corrientes de convección
de la atmósfera por medio de anillos de aire caliente (figura 1.1).
El llamado efecto mariposa puede observarse de la figura 1.4, En
general se observa cómo dos trayectorias que inician muy cerca una
de otra con el tiempo terminan muy separadas, si bien dentro del
atractor pueden estar en alas opuestas del atractor extraño mostra-
do en la figura 1.3.
Existe una multitud de problemas con SFCI que presentan atrac-
tores extraños. Del ejemplo presentado puede observarse que un
3. PARA BUSCAR EL CAOS 13
Figura 1.9. Espectro de potencias de la dependencia tem-
poral de la velocidad radial correspondiente a la transición
de un reǵımen regular a un régimen caótico en el problema
de la convección de Bénard (ver Ref. [3]).
atractor es un conjunto al que convergen todas las trayectorias cer-
canas, de hecho estarán en él para t → ∞. Los atractores extraños
además presentan SFCI y tienen tipicamente una estructura fractal.
3.2.1. Modelo de Hénon y Heiles. Algunos sistemas dinámicos
exhiben una transición desde un movimiento regular hasta un régi-
men caótico cuando se vaŕıa algún parámetro del sistema. El primero
de estos sistemas fue descubierto en 1963 en un estudio pionero por
14 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
(a) (b) (c)
Figura 1.10. Mapas de Poincare para el caso periodico (a),
para el caso con muchos periodos (b) y para el caso caótico
(c).
H = .4166600000e−1; 
py
y
−0.4 −0.2 0 0.2 0.4
0.4
0.2
0
−0.2
−0.4
(a)
H = .8333300000e−1; 
y
py
−0.4 −0.2 0
−0.4
0.2
−0.2
0.2
0.4
0
0.4
(b)
H = .1249990000; 
y
py
0.4
0.2
0
−0.2
−0.4
−0.4 −0.2 0 0.2 0.4
(c)
H = .1666660000; 
y
py
0.4
0.2
0
−0.4
−0.2
−0.4 −0.2 0 0.2 0.4
(d)
Figura 1.11. Secciones de Poincaré para el sistema
de Hénon-Heiles (15). Transición del regimen regular
E =0.04166 (a), al régimen caótico E =0.16666 (d). Las sec-
ciones fueron calculadas con la función poincare del paquete
DEtools de maple 10.
Hénon y Heiles2. El sistema de dinámico de Hénon y Heiles es un
2Los astrónomoss Michel Hénon y Carl Heiles [4] descubrieron que el Hamiltoniano
(15), describe la fuerza que experimenta una estrella que se mueve en una galaxia con
3. PARA BUSCAR EL CAOS 15
sistema de dos grados de libertad descrito por el Hamiltoniano
(15) H =
1
2
(p2x + p
2
y) +
1
2
(x2 + y2) + α(x2y − 1
3
y3) .
Este sistema exhibe una transición de un régimen regular a un
régimen caótico como función de la enerǵıa del sistema. La figu-
ra 1.11 muestra los mapeos de Poincaré para el sistema de Hénon
y Heiles (15) correspondientes a la transición del regimen regular
(H = E =0.04166 –Fig. 1.11a), al régimen caótico (H = E =0.16666
–Fig. 1.11d). La figura 1.11a muestra que a bajas enerǵıas la ma-
yoŕıa de las órbitas del sistema de Hénon y Heiles residen en toros
invariantes, mientras que al aumentar dicha enerǵıa, comienzan a
aparecer bifurcaciones de las curvas invariantes que aparecen en la
SSP (Fig. 1.11b) seguidas de un crecimiento rápido del área cubierta
por las regiones caóticas (Fig. 1.11c,d).
A diferencia de un sistema periódico o cuasiperiódico (figuras
1.10(a) y 1.10(b)) que muestran un número finito de puntos por los
que el sistema cruza el mapa de Poincare, otros sistemas como los
sistemas de tres cuerpos, el sistema de Lorenz, el sistema de Henon y
Heiles etc., muestran figuras cont́ınuas complicadas que hacen prac-
ticamente imposible la detección del punto siguiente (véase la figura
1.11 para el caso de Henon y Heiles). En palabras de Ian Stewart: Es
algo aśı como un autobús que recorre una ciudad, pasando repetida-
mente por la plaza central, pero escogiendo, cada vez al azar, de entre
un millón de paradas diferentes que hay en la misma plaza. Puede
verse el autobús viniendo una y otra vez, sabiendo que parará en la
plaza, pero no se tiene idea de en qué parada esperarlo [5].
3.3. Exponente de Lyapunov. En esta sección vamos a in-
troducir el importante concepto de exponente de Lyapunov, que nos
permitirá caracterizar y clasificar a los sistemas dinámicos caóticos
por su sensitividad a variaciones pequeñas en sus condiciones inicia-
les.
Consideremos para empezar un ejemplo concreto: la aplicación
loǵıstica3. La aplicación loǵıstica es un mapeo definido por la relación
recursiva
(16) xn+1 = rxn(1− xn) , x ∈ (0, 1) .
en donde r ∈ (1, 4) es un parámetro que determina el comportamien-
to del mapeo. Es un ejemplo simple de un sistema que exhibe caos.
Asi pues, lo que es importante mencionar aqúı es el comportamiento
simetŕıa ciĺındrica, la cual da oŕıgen a órbitas regulares para algunas condiciones, y órbitasirregulares (caóticas) para otras condiciones iniciales.
3Este mapeo se presenta y analiza con cierto detalle en el Apéndice C de este trabajo.
16 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
del mapeo para dos puntos iniciales, x y x+ǫ, que empiezan relativa-
mente cerca el uno del otro, i.e. ǫ/x≪ 1. Después de N iteraciones,
la distancia entre los puntos correspondientes es una cantidad que
viene dada por la función |fN (x+ ǫ)−fN(x)| = g(x, ǫ,N), en donde
f(x) = r x(1 − x). La relación exacta que da la distancia entre los
puntos después de N iteraciones la podemos definir convenientemen-
te como
(17) g(x, ǫ,N) = ǫeNλ(x) ,
en donde λ(x) es llamado el exponente de Lyapunov de x, y es, en
su forma más general, una medida de la contracción o alejamiento
de los puntos en el espacio fase. De esta definición es claro que si el
exponente de Lyapunov es positivo, entonces los puntos se alejarán
en forma exponencial con el número de iteraciones, manifestando
aśı la presencia de caos.
Si se despeja, el exponente de Lyapunov es el siguiente:
(18) λ(x) =
1
N
ln
fN(x+ ǫ)− fN (x)
ǫ
.
Llevado al ĺımite en el cual N → ∞ y ǫ→ 0 el exponente de Lyapu-
nov se transforma en:
(19) λ(x) = ĺım
N→∞
1
N
ln
∣
∣
∣
dfN (x0)
dx0
∣
∣
∣.
Este resultado se puede escribir de una manera diferente si se usa
la regla de la cadena para derivar f2(x) ddxf
2(x)|x0 = f
′
[f(x1)]f
′
(x0)
con lo cual el exponente de Lyapunov puede expresarse como:
(20) λ(x0) = ĺım
N−→∞
1
N
∑
i=0
ln |f ′(xi)| .
Lo que se puede ver de la ec.(20) es que cuando el valor absoluto de
la derivada es mayor que 1, entonces el logaŕıtmo es positivo; si los
sucesivos puntos divergen, entonces el promedio de los logaŕıtmos
del valor absoluto de la derivada es positivo. Esto permite dar una
definición de comportamiento caótico:
Un mapeo unidimensional tiene trayectorias caóticas para un valor
particular del parámetro si el exponente de Lyapunov es positivo
para ese valor del parámetro.
Con este resultado es posible calcular el exponente de Lyapunov
como función de r para la aplicación loǵıstica de la ecuación (16).
Los resultados4 se muestran en la figura 1.12. Las zonas en las que el
4Esta gráfica fue hecha a partir de un código computacional escrito en lenguaje C++
presentado en el Apéndice D.
3. PARA BUSCAR EL CAOS 17
-5
-4
-3
-2
-1
 0
 1
 1 1.5 2 2.5 3 3.5 4
λ
X
0
’Datos.dat’
Figura 1.12. El exponente de Lyapunov para la aplicación
loǵıstica (16) desde r = 1 hasta r = 4. Las regiones en las que
el exponente es positivo, tienen comportamiento caótico. Es-
ta figura fue hecha con el programa mostrado en el Apéndice
D
exponente de Lyapunov es positivo son zonas caóticas, coincidiendo
con lo dicho arriba.
Es conveniente comparar la figura 1.12 con la figura 2 del Apéndi-
ce D, en la cual se muestra cómo la aplicación loǵıstica va pasando
por reǵımenes de periodicidad hasta llegar a zonas en las que su
comportamiento se vuelve caótico. Si se hiciera un acercamiento a
la figura 1.12 en esas zonas, modificando el programa del apéndice
D para hacer que r varie mas lentamente, podŕıan verse pequeñas
secciones en las que los valores del exponente de Lyapunov están por
debajo de 0. La razón de esto es debido a la estructura fractal del
mapeo.
Este es un caso relativamente sencillo en el que se estudia un
mapeo unidimensional. Sin embargo también se puede tener el caso
de un mapeo de más dimensiones. Por ejemplo, sea uno de la forma
(21) xn+1 = f(xn, yn), yn+1 = f(xn, yn) ,
en el cual la posición del sistema en el momento n está dado por el
vector
zn =
(
xn
yn
)
,
18 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO.
y, δzn se puede escribir como
δzn =
(
δxn
δyn
)
,
δzn =
(
∂f(xn,yn)
∂xn
δxn
∂f(xn,yn)
∂yn
δyn
∂f(xn,yn)
∂yn
δxn
f(xn,yn)
∂yn
δyn
)
,
entonces este vector se puede escribir como
(22) δzn+1 = Anδzn ,
donde
An =
(
∂f(xn,yn)
∂xn
∂f(xn,yn)
∂yn
∂f(xn,yn)
∂yn
f(xn,yn)
∂yn
)
.
Por medio de aplicar sucesivamente la relación (22) es posible
encontrar la desviación estre los puntos de inicio después de n pasos
(23) δzn = An−1, An−2......A0 = Qnδz0
donde Qn es, por definición, el producto de las matrices An−1
An−2 . . . A0
Trabajando en la base de eigenvectores ei de la matriz Qn, la
desviación inicial entre los puntos viene dada de la forma
(24) δz0 =
∑
i
aiei(n)
donde ai son las coordenadas de las desviación inicial en la base
(e1, e2). Y la desviación después del n-ésimo paso en la nueva base
es
(25) δzn = Qn
∑
i
aiei(n) =
∑
aiνi(n)ei(n)
Hay que recordar que Qnei(n) = νi(n)ei(n), lo cual se ha usado
en la ecuación (25). Con esto es posible introducir el exponente de
Lyapunov a lo largo de las direcciones determinadas por los vectores
ei: νi(n) ∼ eλin que, cuando N es muy grande, queda de la siguiente
manera:
(26) λi(x) = ĺım
N−→∞
ln νi(n)
n
.
4. CONCLUSIÓN 19
4. Conclusión
Los ejemplos presentados en este caṕıtulo muestran caracteŕısti-
cas extrañas e inexploradas durante siglos por matemáticos y f́ısicos.
Poincaré hizo atisbos, si bien puede decirse que fue Lorenz quien
abrió las puertas a un nuevo campo de investigación que ahora es
conocido como caos. Estas caracteŕısticas nos permiten identificar si
hay, o no, caos en un sistema clásico descrito por ecuaciones dife-
renciales cont́ınuas. En resumen estas caracteŕısticas son: Las tra-
yectorias en el espacio fase no tienden a un punto fijo, a una órbita
periódica o cuasiperiódica cuando t→ ∞ , las ecuaciones que la mo-
delan son no lineales, las trayectorias que comienzan cerca, o con
las mismas condiciones iniciales, con el tiempo se separan exponen-
cialmente; además, el volumen en el espacio fase se contrae. El siglo
pasado trajo para la f́ısica dos grandes teoŕıas, la mecánica cuántica
y la relatividad; para muchos la tercera gran teoŕıa es la del caos, su
estudio es imperativo no sólo para f́ısicos y matemáticos, sino tam-
bién para biólogos, médicos. ingenieros, economistas, sociólogos...
Caṕıtulo 2
Invariancia de Escala
1. Leyes de potencias
Existe una gran variedad de fenómenos naturales caracterizados por
parámetros cuyo comportamiento siguen una ley de potencias. A este tipo de
comportamiento se le llama escalamiento. Una de las primeras observaciones
de una ley de escalamiento se debe a Kepler quien descubrió emṕıricamente
que los cuadrados de los periodos de rotación de los planetas alrededor del
Sol se escalan como el cubo de los radios de sus órbitas. Esta ley emṕırica le
permitió a Newton descubrir su famosa ley de gravitación del inverso cua-
drado. En el siglo diecinueve, se llegó a la conclusión de que muchos fenóme-
nos f́ısicos pueden ser descritos por ecuaciones diferenciales parciales cuyas
soluciones, frecuentemente, dan lugar a leyes de escalamiento universales.
Luego, en el siglo veinte, se encontró que las leyes de potencias describen a
varios sistemas termodinámicos en la vecindad de los puntos cŕıticos. Estos
incluyen no sólo sistemas de part́ıculas en interacción como los ĺıquidos y los
imanes, sino también sistemas puramente geométricos tales como las redes
aleatorias. Las leyes de potencias son comunes en distintos problemas no
sólo en f́ısica, sino en ingenieŕıa y bioloǵıa
Desde el punto de vista matemático, una ley de potencia es una relación
entre dos variables de la forma
(27) f(x) = a xk .
Es un monomio en x con k (exponente de escalamiento) y a constantes. Las
funciones de leyes de potencia son llamadas funciones escalantes e implican
que no existe una escala o tamaño t́ıpico: multiplicar a la variable indepen-
diente por una constante conduce a la función primitiva multiplicada por
otra constante.
f(λx) = aλk xk = λk f(x) ,
El comportamiento o forma de la función siempre será la misma cuando se
haga un “alejamiento” o un “acercamiento” variando el factor de escala1.
Cuando se trabaja con datos experimentales, no obstante, es prácticacomún
tomar el logaritmo de las mediciones antes de graficarlas; entonces puede
verse que hay algo más profundo en la relación (27) y que, sólo entonces, se
1Existen muchos ejemplos de leyes de potencias como la Ley de Stefan Boltzmann
que establece que la enerǵıa total radiada por unidad de superficie por unidad de tiempo
de un cuerpo negro, es directamente proporcional a la cuarta potencia de la temperatura
del cuerpo negro, i.e. j ∝ T 4.
21
22 2. INVARIANCIA DE ESCALA
hace evidente. Tomando el logaritmo en ambos lados de la ecuación (27), se
obtiene una relación lineal
log f(x) = k log x+ log a .
La pendiente en esta relación lineal es precisamente el exponente de es-
calamiento. Un reescalamiento del argumento produce un desplazamiento
de la función pero la forma lineal permanece inalterada aśı que continúa
tratándose de la misma ley de potencias. Las rectas, el plano y el espacio
son invariantes por traslaciones y por cambios de escala. Leibniz defińıa una
recta como ((una curva tal que cada una de sus partes es semejante al to-
do, y es la única con esta propiedad, no sólo entre las curvas sino entre los
conjuntos)).
La forma de la ecuación (27) implica una invarianza que se opone a los
decaimientos exponenciales del tipo e−γ(x−x0). El hecho es que, aún cuando
se espere un comportamiento exponencial, muchos fenómenos en la natura-
leza presentan un comportamiento de la forma de la ecuación (27).
Las leyes de potencia son muy importantes como se ha dicho; la ley de
la gravitación universal vaŕıa como una potencia del inverso de la distancia
entre dos cuerpos con masa; la ley es válida tanto si dicha distancia se mide
en metros, en kilometros, miles o millones de kilometros. Otros ejemplos de
leyes de potencias en la f́ısica son: la ley de Stefan-Boltzmann y el comporta-
miento de algunas cantidades termodinámicas, como la capacidad caloŕıfica
o la suceptibilidad magnética, cerca de las transciones de fase de segundo
orden que involucran exponentes cŕıticos, etc. (veáse por ejemplo [6]).
2. Fractales
Existen también en la naturaleza fenómenos que presentan una inva-
rianza restringida. El inglés Robert Brown analizó en 1828 el movimiento de
part́ıculas de polen suspendidas en un ĺıquido. En la figura 2.1 se muestra
una gráfica de tal movimiento.
Pueden observarse los puntos de inicio y de llegada de la part́ıcula a
través de los cuales no hay una ĺınea recta sino un vaivén en zig zag.
Si se toma una escala de tiempo más pequeña para averiguar cómo se
comporta la part́ıcula entre dos puntos A y B, se obtiene una gráfica similar
a la de la figura 2.1.
El movimiento Browniano fue analizado a principios del siglo XX por
Jean Perrin, el cual lo propuso como ejemplo de lo alejado que estaban
las matemáticas de describir la naturaleza tal cual es. En particular hizo
hincapié en el hecho de que tal curva era cont́ınua sin tener derivada, además
de que no sólo se trataba de un caso aislado, sino de las formas dominantes
de la naturaleza. ((Aunque las funciones diferenciables son las más simples
y las más fáciles de manejar, son una excepción. Hablando en términos
geométricos, lo normal son las curvas sin tangente, mientras que las curvas
regulares, como el ćırculo, son casos interesantes pero muy particulares)). Los
matemáticos teńıan las mismas preocupaciones que Perrin. Más o menos por
2. FRACTALES 23
1 2 3 4 5
x
1
2
3
4
y
Figura 2.1. Movimiento Browniano.
la misma fecha, el matemático sueco H. Von Koch propuso otro ejemplo de
curva cont́ınua sin derivada en ninguno de sus puntos. La curva es llamada
el copo de nieve de Von Koch y es tan bella e ilustrativa que ha llegado a
ser bastante conocida.
Von Koch comienza con un triángulo equilátero, figura 2.2a, al cual se
le superpone otro triángulo igual para formar una estrella de David (figura
2.2b). Se repite este proceso (figura 2.2c) de manera indefinida. Von Koch
también llamó la atención sobre el hecho de que la figura obtenida en el ĺımite
de infinitas iteraciones, es finita siendo su peŕımetro infinito. Al observar la
f́ıgura 2.2d se tiene la sensación de que, si bien la curva no es bidimensional,
tampoco parece ser con exactitud una ĺınea unidimensional.
Considérese ahora el llamado polvo de Cantor. Este conjunto se contru-
ye mediante un algoritmo bastante fácil: tómese un segmento de recta de
longitud 1, tal como se ve en la parte superior de la figura 2.3, div́ıdase
el segmento en 3 partes iguales y qúıtese el tercio de enmedio dejando los
puntos finales. Hágase lo mismo con los dos segmentos de longitud de 1/3
restantes. Por último, reṕıtase el procedimiento de manera indefinida. Lo
que queda al final es un conjunto llamado el polvo de Cantor (figura 2.3)
que parece tener una dimensión intermedia entre el punto de dimensión cero,
y la recta de dimensión uno. Estos ejemplos sugieren que debeŕıa definirse
mejor lo que se entiende por dimensión.
Estas ideas han sido estudiadas de manera rigurosa por los matemáticos.
La dimension topológica es intuitiva desde Euclides, se esboza en Poincaré y
se formaliza con Brouwer, Menger, Urrsohn y Lebesgue. Lebesgue usa el
método de recubrir un objeto con otro. Aśı por ejemplo, al cubrir una ĺınea
con segmentos muy pequeños, hay algunos puntos en la ĺınea que estan en
dos de dichos segmentos.
24 2. INVARIANCIA DE ESCALA
(a)
(b)
(c)
(d)
Figura 2.2. Copo de nieve de Von Koch.
Figura 2.3. Polvo de Cantor.
Por otro lado, el matemático alemán Félix Hausdorff hizó una generali-
zación al concepto de dimensión para incluir objetos como el copo de nieve
de Von Koch y el polvo de Cantor. De nuevo la idea es cubrir con hipercubos
de n−dimensión un conjunto que vive en un espacio euclidiano de dimensión
n, debe de hacerse de tal forma que cada punto del conjunto esté en al menos
en un hipercubo de lado εk. Se define ahora:
(28) ld (ε) = ı́nf
∑
k
(
εK
d
)
,
donde el ı́nfimo se toma sobre los hipercubos con εk ≤ k
2. FRACTALES 25
Sea ahora ld = ĺımε→o ld (ε). Existe entonces un valor d = dH tal que
cualquier valor de ld = 0 y para cualquier valor de ld = ∞, dH se conoce
como la dimensión de Haussdorf.
Si por ejemplo, se trata un conjunto que vive en el espacio tridimen-
sional y buscamos el número N (ε) de cubos de todo ε que son necesarios
para cubrirlo y el conjunto es una curva de longitud L, se puede decir que
N (ε) ∼ l/ε, para una superficie de área S, N (ε) ∼ S/ε2 y para un volumen
N (ε) ∼ V/ε3. Para una hipersuperficie viviendo en un espacio generado por
d vectores base, el número N (ε) de hipercubos necesarios para cubrirla es:
N (ε) ∼ Hipervol X
εd
.
En los cuatro casos puede observarse lo siguiente:
N (ε) ∼ L
ε
,
N (ε) ∼ S
ε2
,
N (ε) ∼ N
ε3
,
N (ε) ∼ Hipervol X
εd
,
Si se busca d se tiene :
εd =
Hipervol X
N (ε)
,
y
dε→0 = −
lnN (ε)
ln (ε)
.
Por ejemplo, se presentan en el cuadro siguiente los casos del copo de nieve,
el polvo de Cantor y la salchicha de Minkowsky.
Puede verse que ε es el segmento mı́nimo que se necesita para reproducir
la figura. También puede generalizarse para hipersegmentos, o ladrillos base,
como se muestra a continuación.
partes escaladas por se cumple
N ε = 1N Nε
1 = 1
N ε = 1
N1/2
Nε2 = 1
N ε = 1
N1/3
Nε3 = 1
en general,
Nεd = 1 ,
y
(29) dH =
logN
log ε
.
26 2. INVARIANCIA DE ESCALA
El trabajo de Haussdorf fue terminado por el matamático ruso Besico-
vitch, aśı que la dimensión dH es llamada la dimensión Haussdorf-Besicovitch.
Para las figuras geométricas euclidianas la dimensión topológica y la
dimensión de Haussdorf-Besicovitch dH es igual, en tanto que para ciertos
objetos, como los mencionados copo de nieve de Von Koch, salchicha de
Minkowsky y polvo de Cantor, dH es mayor que la dimensión topológica.
Tales conjuntos son llamados fractales, término introducido por el matemáti-
co francés Benôıt Mandelbrot. Según Mandelbrot [7]
((Un fractal es por definición, un conjunto cuya dimensiónde Haussdorf-
Besicovitch es estrictamente mayor que su dimensión topológica))
El surgimiento de la geometŕıa fractal convirtió a algunos objetos que
con anterioridad se consideraban irregularidades indeseables, en instrumen-
tos para describir con exactitud las formas naturales. Aśı como se ha men-
cionado el movimiento browniano, existe un sinnúmero de fenómenos que
son estudiados por la geometŕıa fractal. Richard F. Voss [8] presenta el
siguiente cuadro comparativo de las dos geometŕıas:
Euclideana Fractal
Tradicional (>2000 años) Moderna (˜30 años)
basada en tamaño o escala caracteŕıstica sin tamaño espećıfico
se ajusta a objetos hechos por el hombre describe formas naturales
descrita por fórmulas descrito por algoritmos
2.1. Ruido 1/fβ. Una caracteŕıstica que hace a los fractales tan úti-
les en la descripción de la naturaleza es la repetición del mismo patrón a
diversas escalas. Si se hace un acercamiento, se puede ver la misma estructu-
ra repetida una y otra vez, como si se tratara de una caja de muñecas rusas.
Un objeto con tal caracteŕıstica es llamado autosimilar. La autosimilitud
se presenta en una gran variedad de fenómenos, uno de ellos es el llamado
ruido 1/f (mas generalmente el ruido 1/fβ), que tiene la forma de una ley
de potencias (en un sentido estocástico2), c.f. ec. (27) y por lo tanto es inva-
riante de escala. El significado de ruido en f́ısica es sinónimo de fluctuación.
Existen a su vez diversas clases de ruido según su oŕıgen:
Ruido Blanco (β = 0) : Es aquel en el que no existe ninguna corre-
lación entre dos puntos sucesivos de la señal en el tiempo. Es el tipo
de ruido que se presenta en los monitores de televisión cuando no
hay conectada una antena receptora.
2Si en el ruido P (f) es la potencia promedio esperada a la frecuencia f , entonces el
ruido se escala como P (f) = λβP (λf) con β = 0, 1, 2 para ruidos blanco, rosa (1/f) y
café respectivamente.
2. FRACTALES 27
500 1000 1500 2000
-3
-2
-1
1
2
3
5 10 50 100 500 100010
-4
0.001
0.01
0.1
1
10
(a)
500 1000 1500 2000
-0.2
-0.1
0.1
0.2
5 10 50 100 500 1000
10-5
0.001
0.1
(b)
500 1000 1500 2000
-0.04
-0.02
0.02
0.04
5 10 50 100 500 1000
10-11
10-9
10-7
10-5
0.001
0.1
(c)
Figura 2.4. Ejemplos de series de tiempo de ruido blan-
co (a), ruido 1/f (b), y ruido 1/f2 (c), con sus respectivos
espectros de potencias [9].
Ruido Browniano (café β = 2): Es un ruido caracteŕıstico de movi-
mientos aleatorios de part́ıculas suspendidas en un ĺıquido y golpea-
das por la agitación térmica de las moléculas. La part́ıcula “recuer-
da” dónde ha estado en el paso inmediatamente anterior. Este tipo de
ruido se puede considerar como la suma de ruido blanco. En efecto,
si consideramos una serie de tiempo de ruido blanco {bi|i = 1 . . . N},
entonces la serie {Bk =
∑k
i=1 bi|k = 1 . . . N}, es ruido Browniano.
Ruido 1/f . Es un ruido espectralmente escalante si su densidad es-
pectral para la frecuencia es de la forma 1/fβ siendo β un exponente
positivo. Si β es próximo a 1 de tal manera que puede tomarse 1/f
en vez de 1/fβ se dice que se trata de un ruido 1/f .
28 2. INVARIANCIA DE ESCALA
3. Fenómenos Cŕıticos y Correlaciones de Largo Alcance
Uno de los grandes avances de la f́ısica de la segunda mitad del siglo XX
fue el desarrollo de la moderna teoŕıa de los fenómenos cŕıticos. El paradigma
central de esta teoŕıa yace en la importancia de las fluctuaciones locales del
parámetro de orden. Para el punto cŕıtico de la transición de fase gas-ĺıquido,
el parámetro de orden es la diferencia de densidades φ = ρl − ρg, mientras
que para un ferromagneto en el punto de Curie, el parámetro de orden es la
magnetización φ =M . Conforme la temperatura se acerca al punto cŕıtico,
el parámetro de orden φ desaparece siguiendo una ley de potencia:
φ ∼ |T − Tc|βc
Cerca del punto cŕıtico Tc, la escala de longitud caracteŕıstica de las
fluctuaciones ξ, también conocida como longitud de correlación, crece de
acuerdo con una ley de potencia:
ξ ∼ |T − Tc|−ηc
La diferencia entre el parámetro de orden en las dos fases (p. ej., las den-
sidades del gas y del ĺıquido) ρl − ρg desaparece conforme la temperatura
se acerca al punto cŕıtico, siguiendo también una ley de potencia. La canti-
dad positiva ηc se llama exponente cŕıtico. Existen otros exponentes cŕıticos
αc, γc, δc, ηc, etc., que caracterizan el comportamiento cŕıtico de otras varia-
bles del sistema.
Las cantidades positivas βc y ηc se llaman exponentes cŕıticos. Exis-
ten otros exponentes cŕıticos que caracterizan el comportamiento de otras
variables del sistema cerca de la transición [6].
Quizás, la manifestación más espectacular de los fenómenos cŕıticos es
la opalescencia cŕıtica. Si uno calienta un contenedor cerrado transparente
llenado hasta la tercera parte de agua, la presión dentro del contenedor se
incrementará de modo que el agua y el vapor permanecerán en equilibrio: la
frontera agua-vapor es claramente visible y ambas fases son transparentes.
Sin embargo, cuando la temperatura se aproxima a la temperatura cŕıtica
Tc = 374℃ dentro de 1℃ , la frontera desaparece y la sustancia en el con-
tenedor se vuelve lechosa: las fluctuaciones de la densidad dispersan la luz
porque su tamaño promedio llega a ser más grande que la longitud de onda
de la luz, que es de alrededor de media micra. Aśı pues la longitud de correla-
ción llega a ser más de mil veces más grande que la distancia promedio entre
las moléculas, que es de alrededor de 0.3 nanómetros. Ya que las fluctuacio-
nes cerca del punto cŕıtico se vuelven extremadamente grandes, los detalles
del potencial de interacción que actúa en escalas mucho más pequeños se
vuelve irrelevante y por tanto todos los ĺıquidos cerca del punto cŕıtico tie-
nen el mismo comportamiento de escalamiento, i.e. tienen exactamente los
mismos exponentes cŕıticos, a decir ηc ≃ 0,64 y βc ≃ 0,33. Mas aún, la teoŕıa
predice que los exponentes cŕıticos estan conectados por varias relaciones, de
modo que al conocer dos cualesquiera de esos exponentes, por ejemplo ηc y
βc uno puede predecir los valores de los demás. Resulta, que los exponentes
3. FENÓMENOS CRÍTICOS Y CORRELACIONES DE LARGO ALCANCE 29
cŕıticos dependen solo de la dimensionalidad del espacio y de algunas otras
caracteŕısticas principales, como la dimensionalidad de las orientaciones del
esṕın en el caso de materiales magnéticos. Aśı, toda la variedad de puntos
cŕıticos pueden clasificarse en pocas clases de universalidad de manera que
todos los sistemas que pertencen a la misma clase de universalidad tienen
los mismos valores para sus exponentes cŕıticos. Por ejemplo, el Modelo de
Ising en una dimensión pertence a la misma clase de universalidad que el
punto cŕıtico ĺıquido-gas.
Caṕıtulo 3
Conceptos del Caos Cuántico
1. Teoŕıa de Matrices Aleatorias
El desconocimiento de una forma expĺıcita de la fuerza que mantiene
unido el núcleo hace que los fenómenos nucleares sean dif́ıciles de estudiar
en tanto que este desconocimiento hace que los Hamiltonianos contengan
una gran cantidad de términos que a su vez hacen dif́ıcil, si no imposible,
la solución exacta de la ecuación de Schroedinger Hψi = Eiψi. Eligiendo
un conjunto completo de funciones como base, el Hamiltoniano H puede ser
representado por matrices. En este contexto en la década de los 50 y 60,
Wigner [10] y otros iniciaron un estudio para establecer conexiones entre la
teoŕıa de matrices aleatorias, desarrollada en la década de los 30 y la f́ısica
nuclear. En esencia, la hipótesis dice que los sistemas cuánticos caóticos
se comportan como si sus enerǵıas caracteŕısticas fueran eigenvalores de
matrices aleatorias tomadas de distribuciones estad́ısticas determinadas por
las caracteŕısticas del problema. En palabras de Dyson “La teoŕıa estad́ıstica
no predecirá la secuencia detallada de niveles de ningún núcleo, sino que
describirá la apariencia generaly el grado de irregularidad de la estructura
que se espera que ocurra en cualquier núcleo el cual es demasiado complicado
para ser comprendido en detalle” [11]. La elección de las entradas para tales
matrices no son del todo arbitrarias sino que, como se ha dicho deben reflejar
caracteŕısticas del problema; por ejemplo el hecho de que sean simétricas
tiene que ver con que el Hamiltoniano debe ser Hermitiano, etc.. El uso
y aplicación de matrices aleatorias se ampĺıa a otros campos, como por
ejemplo el estudio de los ceros de la función Z de Riemann y su distribución
(Hipótesis de Riemann) [11]. Esto para poner de relieve la importancia de
las matrices aleatorias.
2. Espaciamiento de niveles
Como quiera que se tenga un problema cuántico, los f́ısicos experimenta-
les tienen en esencia un conjunto de mediciones presentadas en los espectros.
Dichos espectros, a niveles altos de excitación, presentan estados tan densos
que es prácticamente imposible tratar de explicar los estados individuales
a altas enerǵıas (E > 8MeV). Más allá de cierto punto se hace necesario
explicar las propiedades colectivas, lo cual es más sencillo.
31
32 3. CONCEPTOS DEL CAOS CUÁNTICO
2.1. Distribución de Poisson. Lo primero que se estudia en este
caso es el espaciamiento entre niveles a primeros vecinos. Sean para el caso
E1, E2, ... los niveles sucesivos de enerǵıa, y S1, S2 . . . las distancias entre
valores de Ei consecutivos, i.e. Si = Ei+1−Ei. El valor promedio de Si es el
espaciamiento medio D. Se define el espaciamiento relativo como si = Si/D,
y la función de densidad de probabilidad p(s) nos da la probabilidad p(s)ds
de que algún espaciamiento si tenga un valor entre s y s+ ds.
El caso más simple es aquél en el que los niveles de enerǵıa no están
correlacionados. En este caso la probabilidad de encontrar un nivel Ei entre
E y E + dE es independiente de E. Esto significa que la densidad de pro-
babilidad solo es proporcional al intervalo y por lo tanto es ρ dE en donde
ρ = 1/D = const.
Determinar la probabilidad de encontrar un espaciamiento S es equiva-
lente a preguntarnos: dado un nivel E cuál es la probabilidad de que no haya
ningún nivel entre E y E+S y un nivel en el intervalo (E+S,E+S+ dS).
Para encontrar esta probabilidad se divide el intervalo S en n partes iguales.
La probabilidad de no encontrar un nivel en esos n subintervalos es igual
al producto de las probabilidades de no tener ningún nivel en cada uno de
ellos, i.e.
(30) [1− ρ dE]n =
[
1− ρS
n
]n
, ĺım
n→∞
→ exp(−ρS) ,
Por otro lado, la probabilidad de encontrar un nivel entre E+S y E+S+
dS es ρS, aśı pues, la probabilidad de no tener niveles en (E,E+S) y tener
un nivel en (E + S,E + S + dS) viene dado por el producto exp(−ρS)ρdS.
En términos de s = S/D, queda
(31) p(s) = exp(−s)
que es conocida como la distribución de Poisson. Esta distribución resulta
que no es correcta para describir el espaciamiento de niveles nucleares del
mismo esṕın y paridad si se le compara con los datos experimentales [11].
2.2. La conjetura de Wigner. Wigner propuso una fórmula distinta
para la función de densidad de probabilidad para el espaciamiento entre
primeros niveles vecinos con un mismo esṕın y paridad
(32) pW (s) =
πs
2
exp(−π
4
s2) ,
la cual es llamada distribución de Wigner. El razonamiento consiste en su-
poner que, dado un nivel en E, la probabilidad de encontrar otro nivel en
E + S es proporcional a S (para S pequeño). Se supone esto para todo S
y se supone que las probabilidades en intervalos de longitud S/n son inde-
pendientes
p(S/D)dS = ĺım
n→∞
n−1
∏
k=0
(
1− Sk
n
S
n
a
)
aS dS ,
2. ESPACIAMIENTO DE NIVELES 33
p(S/D)dS = aS exp(−aS2/2)dS ,
donde a se determina pidiendo que el valor promedio de s sea 1.
La exactitud de la conjetura de Wigner para describir un tipo de en-
samble gaussiano, el ortogonal que se describe más adelante, demuestra su
validez.
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
s0.0
0.2
0.4
0.6
0.8
1.0
PHsL
Ca-48 Jpi=3+. NND PHsL -Solid lines: Wigner and Poisson distributions
Wigner
Poisson
Figura 3.1. Distribuciones de Poisson ec. (31) y Wigner
ec. (32) para la distancia entre primeros vecinos compara-
dos con cálculos de Shell Model con interacción realista KB3
(histograma) para el subespacio Jπ = 3+ del 48Ca (v. secc.
1.5 Caṕıtulo 4 de esta Tesis).
2.3. Ensambles gaussianos. El conocimiento de las simetŕıas de un
sistema permite simplificar su estudio. Por ejemplo en la mecánica clásica
éstas simetŕıas estan asociadas con constantes de movimiento. En la mecáni-
ca cuántica, si el Hamiltoniano H es invariante respecto a una operación de
simetŕıa existe un operador R, asociado con ésta simnetŕıa, tal que
(33) [R,H] = 0 .
SiH conmuta conR, entonces también conmuta con R+R+ y con i(R+R+).
La representación matricial deH se simplifica si las eigenfunciones deRϕn,a =
rnϕn,a, se usan como base.
Se suponen rn diferentes y el ı́ndice a = 1, 2 . . . Nn corre para valores con
el mismo eigenvalor rn. Usando ϕn,a como eigenfunciones, el conmutador ec.
(33) se ve como 0 =
〈
ϕn,a |RH −HR|ϕmb
〉
= (rn − rm)
〈
ϕn,a |H|ϕm,b
〉
lo
cual conduce a
〈
ϕn,a |H|ϕm,b
〉
= δnmH
n
a,b ,
con Hna,b =
〈
ϕn,a |H|ϕn,b
〉
con lo cual la representación matricial de H se
reduce a bloques:
34 3. CONCEPTOS DEL CAOS CUÁNTICO
H =






H1 0 0 . .
0 H2 0 . .
0 0 H3 . .
. . . . .
. . . . .






,
con Hk = Hka,b un bloque de dimensión Nn ×Nn.
Este procedimiento puede aplicarse a relativamente pocos sistemas. Ejem-
plo de un sistema no integrable es el núcleo atómico. Los estados nucleares
son clasificados por los números cuánticos Jπ,mj con J el momento angular
total y mj el número cuántico magnético. π es la paridad: + si es par y − si
es impar. Sólo existen el momento angular y la enerǵıa como constantes de
movimiento. Aśı los núcleos atómicos son descritos por Hamiltonianos que
se reducen a bloques donde cada bloque está asociado con un valor de Jπ.
Si no hay campos magnéticos estos bloques son de dimensión 2J +1 debido
a la degeneración de mj subniveles.
Una simetŕıa importante es la simetŕıa de inversión temporal. El opera-
dor T cambia el signo del tiempo1 : T (f(t)) = f(−t) . La acción del operador
T consiste en cambiar el signo de los momentos lineal y angular y dejar inal-
terada la posición:
(34) TXT−1 = X ,
(35) TPT−1 = −P ,
(36) TJT−1 = −J .
Consideremos el efecto de T sobre el conmutador canónico de la posición
con el momento XP − PX = i~:
(37) TXT−1TPT−1 − TPT−1TXT−1 = T i~T−1
De acuerdo a (34) y ( 35), (37) se transforma en −(XP−PX) = T iT−1~
lo cual se transforma en la relación original sólo si T iT−1 = −i, esto es,
T debe ser un operador antilineal2. Alternativamente, podemos considerar
la acción combinada CT en donde C es el operador complejo conjugado
(CA = A∗) tal que Ci = −i. Hagamos actuar al operador τ = CT en ambos
lados de la ecuación de Schrödinger:
1En la literatura se considera generalmente a T como un operador antilineal, un poco
distinto al presentado aqúı. Un tratamiento t́ıpico es el dado por Ballentine. En el presente
documento seguiremos, sin embargo, a Stöckman [12].
2Se dice que un operador A es antilineal si satisface la relación
A(c1|ψ1〉+ c2|ψ2〉) = c
∗
1A|ψ1〉+ c
∗
2A|ψ2〉 .
2. ESPACIAMIENTO DE NIVELES 35
(38) τHτ−1τ |ψ(t)〉 = τi~ ∂
∂t
|ψ(t)〉 ,
si el Hamiltoniano H es independiente del tiempo, y se reemplaza t por −t,
de la ec.(38) se obtiene que T |ψ(−t)〉 satisface la ecuación de Schrödinger,
aunque en este caso, a diferencia de lo que ocurre cuando el Hamiltoniano
es invariante ante una transformación lineal, no hay ninguna cantidad con-
servada asociada a este operador. Podemos hacer una clasificación de los
sistemas f́ısicos de acuerdo con sus propiedades de transformación ante el
operador τ (de inversión temporal) y ver que consecuencias tiene la inva-
riancia ante inversion temporal en cuanto a las representaciones matriciales.
Esto lo hacemos a continuación.2.4. Sistemas sin invariancia temporal. Para el caso de un electrón
en un campo magnético, la simetŕıa de inversión temporal se rompe (porque
p se sustituye por p− ecA). Como el Hamiltoniano es hermitiano, se cumple
que Hnm = H
∗
mn y en general Hnm 6= Hnm. Aśı, en sistemas con simetŕıa
de inversión temporal rota no es posible representar los Hamiltonianos por
medio de matrices reales. La propiedad de hermiticidad de H es preservada
bajo una transformación unitaria.
(39) H
′
= UHU ,UU+ = 1 .
2.5. Sistemas con invariancia temporal. Para el caso en el que
existe simetŕıa de invariancia temporal hay dos situaciones:
a) No hay interacciones con esṕın 1/2. Ya que no hay interacción con un
campo magnético externo, H conmuta con C. Aśı, podemos encon-
trar funciones base ϕn que son eigenfunciones de C. Ya que C
2 = 1,
los únicos eigenvalores de C son ±1:
Cϕ∗n = ±ϕn
Aśı, ϕn son reales o imaginarios puros. Ya que las fases de las fun-
ciones base pueden ser elegidos arbitrariamente, se toma sin pérdida
de generalidad ϕn como real. Los elementos de matriz también son
reales:
Hnm = Hmn .
Con esto, los sistemas con simetŕıa de invariancia temporal y sin in-
teracciones de esṕın 1/2 los hamiltonianos pueden ser representados
por matrices reales simétricas. Esta propiedad es conservada bajo
transformaciones ortogonales
H = OH O+ , OOT = 1 ,
36 3. CONCEPTOS DEL CAOS CUÁNTICO
con
OTnm = Omn .
b) Hay interacciones de esṕın 1/2. En el caso en el que hay simetŕıa
de invariancia temporal y además interacción de esṕın 1/2, H no
conmuta con C, ya que incluye términos complejos. Como el ope-
rador de esṕın S = ~2σ (con σ las matrices de Pauli), se usa por
conveniencia los cuaterniones τ para expresar σ: τ = iσ o
(40) τx =
(
0 i
i 0
)
, τy =
(
0 1
−1 0
)
, τ z =
(
i 0
0 −i
)
,
(41) τ2x = τ
2
y = τ
2
z = −1 ,
(42) τxτy = −τyτx, τxτ z = −τ zτx, τyτ z = −τ zτy .
Debido a la ec. (41) puede verse a los cuaterniones como una generaliza-
ción de los números complejos con 3 unidades imaginarias. El hamiltoniano
completo de un sistema con interacción de esṕın 1/2 puede ser escrita como
H = H0 +Hτ(43)
= H0 +Hxτx +Hyτy
con H0,Hx,Hy,Hz reales y τx, τ y son imaginarios y anticonmutan con
C. El operador Cτy conmuta con todas las componentes de τ : [Cτy, τx] =
[Cτy, τy] = [Cτy, τ z] = 0 y el hamiltoniano completo H también conmuta
con Cτy. Aśı, si ψn es una eigenfunción de H, entonces Cτyψn es otra eigen-
función de H con el mismo eigenvalor (degeneración de Kramer, observada
en todos los sistemas de esṕın 1/2 con simetŕıa de invariancia temporal).
Al igual que las matrices de Pauli, los cuaterniones τ junto con la matriz
unidad de 2 × 2 forman una base para las matrices de 2 × 2 con entradas
complejas:
(
a b
c d
)
=
1
2
(a+ d)1− i
2
(b+ c) τx +
1
2
(b− c) τy −
i
2
(a− d) τ z .
Todas las matrices de (2N × 2N) pueden ser consideradas cortadas en N2
bloques de 2× 2 y cada bloque expresado en términos de cuaterniones.
Si las eigenfunciones no son conocidas, se puede usar los espinores ϕn y
ϕn = Cτyϕn como funciones base. Con esas funciones la matriz de H puede
ser escrita en términos de matrices 2× 2
Hnm =


〈ϕn |H| ϕ̄m〉 〈ϕn |H|ϕm〉
〈ϕn |H| ϕ̄m〉 〈ϕn |H|ϕm〉

 ,
se puede simplificar y obtener
2. ESPACIAMIENTO DE NIVELES 37
Hnm =


(H0)nm + i (Hz)nm (Hy)nm + i (Hx)nm
− (Hy)nm + i (Hx)nm (H0)nm − i (Hz)nm

 ,
(44) Hnm = (H0)nm 1+Hnm τ ,
Las transformaciones que dejan invariante H son llamadas transforma-
ciones simplécticas.
(45) H ′ = SHSR ,
con S simpléctica, SSR = 1 y SR es el dual de S definido por SR =
ZSTZ−1 = −ZSZ y Z, vista en matrices de N × N es diagonal con los
elementos de matriz Znm = δnmτy.
En resumen se tiene:
Sistemas cuyo Hamiltoniano no tiene simetŕıa de inversión temporal
pueden ser representados por matrices Hermitianas invariantes ba-
jo transformaciones unitarias. Este ensamble es llamado Ensamble
Gaussiano Unitario, (GUE por sus siglas en inglés). Experimental-
mente pueden ser creados, en principio, poniendo un núcleo o un
átomo en un campo magnético externo.
Sistemas cuyo hamiltoniano śı tiene simetŕıa de inversión temporal
pero no interacciones de esṕın 1/2 pueden ser representados por
matrices reales y son invariantes ante transformaciones ortogonales.
Este ensamble es llamado Ensamble Gaussiano Ortogonal, (GOE
por sus siglas en inglés).
Sistemas cuyo hamiltoniano tiene simetŕıa de inversión temporal
más interacciones de esṕın 1/2 pueden ser representados por ma-
trices cuaterniónicas reales que son invariantes ante transformacio-
nes simplécticas. Este ensamble es llamado Ensamble Gaussiano
Simpléctico (GSE por sus siglas en inglés).
Al momento de llenar las matrices deben cumplirse las condiciones ante-
riormente deducidas. Para el GOE el número de los elementos independientes
es N(N+1)/2. La distribución de probabilidad para los elementos de matriz
diagonales p(H11, . . . ,HNN ) no debe depender de las funciones base. Aśı
(46) p(H11, . . . ,HNN ) = p(H
′
11, . . . ,H
′
NN )
con H ′ = OHOT , la matriz hamiltoniana transformada por el cambio de
base mediante una transformación ortogonal OOT = 1.
Las funciones de Hnm invariantes ante transformaciones ortogonales sólo
pueden depender de las trazas de potencias de H: Tr(OAOT ) = Tr(A).
Aśı
(47) p(H11, . . . ,HNN ) = f
[
Tr(H), T r(H2), . . .
]
,
38 3. CONCEPTOS DEL CAOS CUÁNTICO
además se pide:
(48) p(H11,, . . . ,HNN ) = p(H11)p(H22), . . . , p(HNN ) .
La forma de p(H11, . . . ,HNN ) que satisface (47) y (48) es
(49) p(H11, . . . ,HNN ) = c exp
[
−BTr(H)−ATr(H2)
]
.
Siempre es posible mover 1N Tr(H) a cero, lo cual implica que sin pérdida
de generalidad se puede tomar B = 0 en (49). La constante c se determina
con la ayuda de la condición de normalización
(50)
∫
p(H11, . . . ,HNN )dH11 . . . dHNN = 1 .
Para el caso ortogonal, los elementos no diagonales de la matriz ocurren dos
veces en la exponencial, conduciendo a un factor de normalización igual a
√
2A/π mientras que los elementos diagonales dan un factor igual a
√
A/π.
Con esto
(51) p(H11, . . . HNN ) =
(
A
π
)N
2
(
2A
π
)N(N−1)/2
exp(−A
∑
nm
H2nm) .
La constante A puede ser expresada como:
(52)
〈
H2nn
〉
=
√
A
π
∫
H2nm exp(−AH2nn)dHnn =
1
2A
,
(53)
〈
H2nm
〉
=
√
2A
π
∫
H2nm exp(−2AH2nm)dHnm =
1
4A
.
El conjunto de todas las matrices reales aleatorias cuyos elementos obede-
cen la función de distribución de la ec. (51) definen el Ensamble Gaussiano
Ortogonal (GOE por sus siglas en inglés).
De forma similar se obtienen las expresiones:
p(H11, . . . ,HNN ) =
(
A
π
)N/2(2A
π
)N(N−1)
×
exp
{
−A
∑
n,m
[
(HR)
2
nm + (HI)
2
nm
]
}
(54)
con (HR)nm y (HI)nm las partes real e imaginaria de Hnm para el Ensamble
Gaussiano Unitario (GUE), y
p(H11, . . . ,HNN ) =
(
A
π
)N/2(2A
π
)2N(N−1)
×
exp
{
−A
∑
n,m
[
(H0)
2
nm + (Hx)
2
nm + (Hy)
2
nm + (Hz)
2
nm
]
}
,(55)
2. ESPACIAMIENTO DE NIVELES 39
con (H0)
2
nm , (Hx)
2
nm, (Hy)
2
nm, (Hz)
2
nm las componentes cuaterniónicas de
Hnm para el Ensamble Gaussiano Simpléctico (GSE).
Estas distribuciones de los elementos de matriz de ensambles gaussianos
son importantes, pero no son útiles en la comparación con el experimento.
Es decir, dado que los valores disponibles son generalmente los eigenvalores
es necesario expresar dichas fórmulas en términos de Ei.
Las expresiones para todos los ensambles gaussianos, puede demostrarse,
se engloban en la expresión siguiente:
(56) p(E1, . . . , EN ) ∼
∏
n>m
(En −Em)θ exp
{
−A
∑
n
[
(En)
2
]
}
con θ = 1, 2, 4 para GOE, GUE y GSE respectivamente. El caso θ = 0 es
llamado ensamble de Poisson (GDE, Gaussian Diagonal Ensamble).
2.6. Correlaciones espectrales. La correlación espectral que se es-
tudia con mayor frecuencia es la distribución de probabilidad para la distan-
cia entre primeros vecinos, p(s), de los niveles de enerǵıa. Se puede encontrar
la distribución de primeros

Continuar navegando