Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
POSGRADO EN CIENCIAS FÍSICAS T E S I S QUE PARA OBTENER EL GRADO DE: MAESTRO EN CIENCIAS (FÍSICA) PRESENTA: CANDELARIO HERNÁNDEZ GÓMEZ DIRECTOR DE TESIS: DR. ALEJANDRO FRANK HOEFLICH CODIRECTOR DE TESIS: JUAN CARLOS LÓPEZ VIEYRA MIEMBROS DEL COMITÉ TUTORAL: DR. OCTAVIO CASTAÑOS GARZA DRA. ROCIO JÁUREGUI RENAUD MÉXICO, D.F. AGOSTO 2012 UNIVERSIDAD NACIONAL AUTONOMA DE MEXICO “INVARIANCIA DE ESCALA: UN ACERCAMIENTO AL CAOS” UNAM – Dirección General de Bibliotecas Tesis Digitales Restricciones de uso DERECHOS RESERVADOS © PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL Todo el material contenido en esta tesis esta protegido por la Ley Federal del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). El uso de imágenes, fragmentos de videos, y demás material que sea objeto de protección de los derechos de autor, será exclusivamente para fines educativos e informativos y deberá citar la fuente donde la obtuvo mencionando el autor o autores. Cualquier uso distinto como el lucro, reproducción, edición o modificación, será perseguido y sancionado por el respectivo titular de los Derechos de Autor. Agradecimientos Varias etapas han sucedido a lo largo de la elaboración de éste trabajo, y quiero agradecer a todas las personas que estuvieron involucradas en ellas. A mis profesores: En primer lugar, y antes de haber empezado esta tesis, debo decir que tuve excelentes profesores durante mi estancia en el Posgrado en Ciencias F́ısicas, y aunque personalmente ya he agradecido a algunos de ellos, creo que es éste un lugar para hacerlo de nuevo. En particular quiero agradecer a mis profesores con quienes tomé cla- ses. A los doctores Luis de la Peña, Rafael Pérez Pascual, Roćıo Jáuregui, Carmen Varea y Alejandro Frank. A los miembros de mi comité tutoral que estuvo integrado por los doctores Alejandro Frank, Juan Carlos López Viey- ra, Octavio Castaños y Roćıo Jáuregui. Al Dr. Alberto Robledo quien me recibió como oyente durante un semestre en su seminario de sitemas com- plejos en el Instituto de F́ısica. Debo decir que sigo creyendo que fueron la mejor elección de profesores y tutores que pude hacer, y que la UNAM es la mejor universidad que pude elegir para estudiar mi posgrado. i ii AGRADECIMIENTOS A mis amigos: En el posgrado, tanto Irving Morales como Emmanuel Landa fueron más que compañeros. Ellos han llegado a ser expertos en los temas de esta tesis y muchas ideas aportaron a ella. Fue un gusto compartir juntos este tiempo. En la casa de estudiantes Carlos A. Madrazo Becerra, tengo varios ami- gos. A ellos agradezco la hospitalidad con la que siempre me trataron. Todos los compañeros que he conocido han llegado a ser como de mi familia. A to- dos los recuerdo. Sin embargo, seŕıa injusto no mencionar por lo menos a Juan Armando Velazco, que me recibió con una gran amabilidad y desde el principio me dio su amistad y confianza, a Marcos Montiel, que fue la persona con quien más tiempo compart́ı y al que siempre le ha dado mucho gusto que me vaya bien, y también a Bartolo Vicente, que ha sido un ex- celente amigo y que además me ayudó a escribir la primer versión de ésta tesis cuando teńıa un tiempo ĺımite para entregarla. AGRADECIMIENTOS iii A mis revisores: Al Dr. Jose Barea con quien escrib́ı algunos de los primeros códigos en Mathematica y discut́ı algunas cuestiones acerca de el caos cuántico y la f́ısica nuclear. Aunque finalmente no formó parte del grupo de sinodales, le agradezco desde aqúı por toda su ayuda. A los doctores Vı́ctor Velázquez y Ruben Fossion, quienes estuvieron conmigo en la preparación del experimento del grifo goteante en la Facultad de Ciencias. También dedicaron tiempo de su agenda para revisar este tra- bajo y hacerme varias observaciones y cuestionamientos importantes. El Dr. Velázquez aportó de manera gentil los datos de Shell Model para el 48Ca, que se emplearon para llevar a cabo los cálculos que se presentan en el Caṕıtulo 5. Al Dr. Jorge Bernal quien ha sido siempre, desde que lo conoćı, más un amigo que un maestro, y gracias a él, en buena medida, llegué por primera vez a este Instituto. Le agradezco en particular haber revisado esta tesis. iv AGRADECIMIENTOS A mis directores de Tesis: El Dr. Juan Carlos López Vieyra quien ha pasado muchas horas traba- jando conmigo en éstas páginas, revisando cada ĺınea y haciendo un trabajo de edición muy importante con la primera versión que yo presenté. He lle- gado a admirar su dedicación al trabajo y lo escrupuloso que puede ser a la hora de hacer cŕıticas. Fue capaz de eliminar páginas enteras porque no lo dejaron satisfecho. Las puertas de su oficina siempre estuvieron abiertas para mı́, a pesar de que estaba atendiendo siempre una gran cantidad de tareas. A lo largo de estos años de convivencia ha llegado a ser un gran amigo. Al Dr. Alejandro Frank quien me recibió alguna vez en un verano de la investigación cient́ıfica, y quien a partir de ese d́ıa me dió la oportunidad de participar en sus reuniones semanales con sus grupos, siempre numerosos, de colaboradores. Ha sido muy importante para mi formación el poder estar con él y apreciar su calidad como investigador y como persona. Siempre me ha sorprendido que en medio de mil reuniones y compromisos, sea capaz de dar luz sobre problemas que apenas acaba de conocer. Su idea de ata- car primero la caricatura, antes que el problema completo, se ha quedado grabada en mı́ hasta hoy, y la recuerdo cada vez que voy a escribir algún programa. Sobra decir que fue más que un asesor para mı́ y que en verdad, sin su apoyo, dif́ıcilmente habŕıa conclúıdo esta tarea. Más de una vez tuvo que hacer trabajo que iba más allá de su labor como tutor, desde conce- derme una beca de ayudante de investigador hasta gastar muchos pesos en llamadas para localizarme. AGRADECIMIENTOS v A mi familia: A mis padres, Luis Hernández Morales y Maŕıa Ysidra Gómez León, quienes siguen siendo las personas más importantes de mi vida. Si hay alguna virtud en mı́, es porque la he aprendido de ellos. A mis hermanos: Ricardo, Margarita y Ana Cristina, porque junto a ellos he pasado los mejores momentos de mi vida. A mi Abuelo, Álvaro Hernández Ramos. Si este trabajo correspondiera con su grandeza, lo dedicaŕıa a su memo- ria. A pesar de que nunca oyó una palabra de estos temas, no deja de ser una de las personas mas sabias y sensatas que he conocido. Resumen En este trabajo se estudia la presencia de ruido 1/f como una caracteŕıstica propia de los fenómenos caóticos en sistemas clásicos y cuánticos. El estudio se lleva a cabo a través del análisis de series de tiempo asociadas a dichos fenómenos. Se analizan las series de tiempo para las fluctuaciones del espectro de enerǵıas del núcleo de 48Ca, y las series de tiempo asociadas con el mapeo loǵıstico y el grifo goteante. Todos estos casos presentan caos. Aunque no se ha establecido la presencia de ruido 1/f en los casos clásicos, se ha visto que 1/f está presente en los puntos de transición regularidad- caos. Abstract In this work we study the presence of 1/f noise as a com- mon feature of classical and quantum systems which charac- terises chaotic phenomena. The study is carried out through the analysis of time series associated with such phenomena. Time series of the fluctuations in the energy spectrum of 48Ca, and time series associated with the logistic map and the dripping faucet are analysed. All these phenomena exhi- bit a chaotic behaviour. Though it was not possible to esta- blish the presence of 1/f in classical chaotic systems, it has been observed that 1/f is present in the points of transition between regular-chaotic regimes. vii Índice general Agradecimientos i Agradecimientos v Resumen ix Prefacio xiii Caṕıtulo 1. Conceptos básicos y ejemplos del caos clásico. 1 1. Sensibilidad fuerte a las condicionesiniciales 1 2. Comportamiento en el espacio fase 4 3. Para buscar el caos 9 4. Conclusión 19 Caṕıtulo 2. Invariancia de Escala 21 1. Leyes de potencias 21 2. Fractales 22 3. Fenómenos Cŕıticos y Correlaciones de Largo Alcance 28 Caṕıtulo 3. Conceptos del Caos Cuántico 31 1. Teoŕıa de Matrices Aleatorias 31 2. Espaciamiento de niveles 31 2.1 Distribución de Poisson 32 2.2 La conjetura de Wigner 32 Caṕıtulo 4. Series de Tiempo de las Fluctuaciones del Espectro Cuántico 43 1. Conjetura de Relaño 43 Caṕıtulo 5. Caos en el Espectro Nuclear e invariancia de escala 57 1. Fractalidad e invariancia de escala 1/f 58 2. Series de tiempo de las fluctuaciones del espectro nuclear 59 3. Resultados 59 4. Conclusiones del caṕıtulo 63 Caṕıtulo 6. Análisis del caos en el mapeo loǵıstico 69 1. En dónde buscar 75 Caṕıtulo 7. El grifo goteante 79 1. Experimento 79 ix x Índice general Caṕıtulo 8. Conclusiones 85 Apéndice A. Detrended Fluctuation Analysis 87 Apéndice B. Atractor de Lorenz 89 Apéndice C. Mapeo Loǵıstico 91 Apéndice D. Programa para calcular el exponente de Lyapunov en el Mapeo Loǵıstico 95 Apéndice. Referencias 97 Prefacio Se presenta aqúı algunos aspectos del caos, clásico y cuántico; se ana- lizan algunos ejemplos y se pone especial énfasis en aquellas propiedades que presentan invariancia de escala. El objetivo principal de este trabajo es la búsqueda y exploración de esta noción (invariancia de escala) como un concepto común que pueda caracterizar el caos clásico y sus manifestaciones cuánticas. Se inicia el trabajo con una revisión de los principales indicado- res del caos clásico en sistemas dinámicos: sensibilidad fuerte a condiciones iniciales (efecto mariposa), mapas de Poincaré, espectro de frecuencias y exponentes de Lyapunov. El caṕıtulo 2 trata el tema de la invariancia de escala, fenómeno con el que se trabaja el resto de la tesis. A continuación, caṕıtulo 3, se hace un breve repaso de las caracteŕısticas principales del caos cuántico, como son la conjetura de Bohigas, la teoŕıa de matrices aleatorias (RMT) etc. El caṕıtulo 4 hace un estudio de caso en el que se corrobora la llamada conjetura de Relaño (que se refiere a la presencia de ruido 1/f en el espectro de potencias de las fluctuaciones del espectro cuántico) en los casos de los ensambles de la RMT, y en el estudio de los niveles de enerǵıa del núcleo 48Ca en el capitulo 5. En el principio de este trabajo se partió siguiendo en mucho esta conjetura. En el resto del trabajo se trató de encontrar situaciones similares en otros sistemas caóticos clásicos. A esto se refieren los caṕıtulos 6 y 7. En particular se trabaja con el caso del grifo goteante, fenómeno propuesto por Rössler como ejemplo de ruta al caos por intermitencia. También se analiza el mapeo loǵıstico, una aplicación senci- lla en su definición aunque compleja en su comportamiento. A lo largo de estos caṕıtulos se trata de hacer énfasis en la existencia de una invariancia de escala manifiesta por medio de la presencia de ruido 1/f en las series de tiempo asociadas. xi Caṕıtulo 1 Conceptos básicos y ejemplos del caos clásico. Uno de los descubrimientos más importantes en la mecánica clásica es, sin duda, el hecho de que existen sistemas dinámicos deterministas descritos por ecuaciones diferenciales no-lineales los cuales exhiben comportamientos muy sensibles a las variaciones en las condiciones iniciales denominados sis- temas caóticos. Este comportamiento caótico puede encontrarse incluso en sistemas dinámicos de pocos grados de libertad (como en el caso del proble- ma de Kepler diamagnético) en donde las leyes de movimiento se conocen exactamente y la evolución temporal del sistema se describe mediante ecua- ciones diferenciales bien determinadas. La razón del comportamiento caótico se encuentra en la inestabilidad de las órbitas debido a una alta sensibili- dad de la evolución temporal respecto de las condiciones iniciales. En este caṕıtulo daremos algunas definiciones básicas y ejemplos simples de sistemas clásicos caóticos y de algunos de los métodos usados para su descripción y caracterización. 1. Sensibilidad fuerte a las condiciones iniciales Consideremos la ecuación de cáıda libre x(t) = x(0)+v(0)t+ 12gt 2 y sean las condiciones iniciales x(0) = x0 ± a ; v(0) = v0 ± b, en donde a y b repre- sentan los errores en la medición de la posición y velocidad iniciales, respec- tivamente. Es posible entonces asegurar que x(t) = x0+v0t+ 1 2gt 2±(a+bt). Ocurre aqúı que las condiciones iniciales hacen crecer el error en la medi- ción de manera lineal; dicho error puede hacerse más pequeño cuanto más exactas sean las condiciones iniciales. El caso no es tan dif́ıcil de manejar en la práctica ya que, si bien no de manera exacta, podremos calcular x(t) con tantas cifras significativas como sea necesario. Sin embargo, es importante tener el error en cuenta. Ahora consideremos un movimiento más complicado, en donde una part́ıcu- la está sujeta a la acción de un potencial repulsivo U = −12k x2 , con k = const.; las ecuaciones de movimiento en este caso son: x(t) = x(0) cosh(hγt)+ v(0) γ sinh(γt), con γ 2 = km (ver por ej. la Ref.[1]). De nuevo aqúı las condi- ciones iniciales son x(0) = x0 ± a, v(0) = v0 ± b. En este caso, el error crece de manera exponencial con los errores en las condiciones iniciales: x (t) = x0 cosh(hγt) + v0 γ sinh(γt)± [a cosh(γt) + b sinh(γt)]. La situación es muy diferente a la del primer ejemplo. Las soluciones a las que llegamos distan de manera extraordinaria una de otra dependiendo de los valores de 1 2 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. a y b. Esta caracteŕıstica fue observada por muchos cient́ıficos en diversos sistemas f́ısicos descritos por ecuaciones diferenciales no lineales. Si un sis- tema es tal que un pequeño cambio en las condiciones iniciales aumenta exponencialmente en el tiempo, se dice que dicho sistema tiene sensibilidad fuerte a las condiciones iniciales (SFCI). 1.1. El modelo de Lorenz. En 1963 el meteorólogo Edward Lorenz del MIT encontró una alta sensibilidad a las condiciones iniciales, cuando estudiaba un modelo predictor de un microclima modelado por el conjunto de ecuaciones diferenciales autónomas [2]: dx dt = −σx+ σy , dy dt = ρx− y − xz ,(1) dz dt = −βz + xy . Dicho problema modela las corrientes de convección de la atmósfera por medio de anillos de aire caliente (figura 1.1). Después de proponer sus ecua- ciones, Lorenz las simplificó bastante dejando sólo las caracteŕısticas prin- cipales y la no linealidad. En el conjunto de ecuaciones (1) las variables y las constantes tienen el siguiente significado: σ es el llamado número de Prandtl (viscosidad/conductividad térmica), ρ es el número de Rayleigh (discrepancia de temperatura entre las dos capas del sistema), β es la razón longitud/altura del sistema a considerar, x es la rotación del anillo, y es el gradiente de temperatura, y z es la desviación de la temperatura respecto a su valor de equilibrio. Las soluciones numéricas del sistema (1) encontradas por Lorenz distaban enormemente una de otra conforme evolucionaba el sis- tema, aún cuando las condiciones iniciales difeŕıan en una diezmilésima, tal como se muestra en la figura 1.2. El término efecto mariposa1, que usó Lo- renz para llamar a este descubrimiento extraño, es popular para designar la SFCI. El efecto mariposa puede observarse de las figuras 1.2, 1.3. En general se observa cómo dos trayectorias que inician muy cerca una de otra con el tiempo terminan muy separadas. Tı́picamente el comportamiento caótico de los sistemas se encuentra res- tringido sólo en un subconjunto del espacio fase. En los casos de mayor interés, un gran número de diferentes condiciones iniciales conducen a órbitas que se encuentran limitadas a una región caótica del espacio formando una estructura fractal llamada atractor extraño. La figura1.3 muestra el atractor extraño del modelo de Lorenz (1). 1Su nombre proviene de un antiguo proverbio chino: “el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo”. 1. SENSIBILIDAD FUERTE A LAS CONDICIONES INICIALES 3 Figura 1.1. Corrientes de convección de la atmósfera por medio de anillos de aire caliente descritas por el modelo de Lorenz (1). -20 -15 -10 -5 0 5 10 15 20 0 5 10 15 20 25 30 35 x time Lorenz Attractor Figura 1.2. Evolución temporal de la variable x del sistema de ecuaciones de Lorenz (1) para el conjunto de parámetros σ = 10, ρ = 28, β = 8/3. Las curvas difieren en las condicio- nes iniciales en una diezmilésima, i.e. x0 = y0 = z0 = t0 = 0,0001 para una curva (en rojo), y x0 = y0 = z0 = t0 = 0,0002 para la otra (en azul). 1.2. Mapeo loǵıstico. Existen también sistemas simples que exhiben caos sin estar relacionados con ecuaciones diferenciales. Tal es el caso del mapeo loǵıstico, que describe el crecimiento de una población en el tiempo. (2) xn+1 = rxn(1− xn) , r ∈ (1, 4) ⇒ x ∈ (0, 1) . Este mapeo muestra un comportamiento caótico para valores del parámetro de crecimiento r > 3,57. Véase la figura 1.4. Este mapeo se analiza con mas detalle en el Apéndice C. 4 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. x y z 0 15 25 35 45 20 10 0 −10 −20 −55 15 −15 Atractor de Lorenz Figura 1.3. El atractor de Lorenz correspondiente a la solución del sistema de ecuaciones (1) para el conjunto de parámetros σ = 10, ρ = 28, β = 8/3. Las trayectorias se ob- tuvieron con el programa de cómputo descrito en el Apéndice B. 5 10 15 20 25 30 35 0.2 0.4 0.6 0.8 xn n Figura 1.4. Gráficas de los primeros 35 valores xn del ma- peo loǵıstico (2) con r = 3,9 para dos valores iniciales x0, x ′ 0 distintos (x0, x ′ 0 ∈ (0, 1)) que difieren en 0.000001. 2. Comportamiento en el espacio fase Para revelar el comportamiento caótico de los sistemas dinámicos es necesario hacer un estudio de la órbitas en el espacio fase correspondiente. Para introducir los conceptos básicos comencemos con un caso simple: el péndulo. La ecuación de movimiento para la coordenada θ (el único grado de libertad relevante del sistema) es (3) d2θ dt2 + g l sin θ = 0 , 2. COMPORTAMIENTO EN EL ESPACIO FASE 5 la cual puede escribirse como un par de ecuaciones autónomas: θ̇ = ω ,(4a) ω̇ = −g l sin θ ,(4b) donde se ha introducido la velocidad angular ω ≡ θ̇. Igual que el conjunto (1), este sistema de ecuaciones sólo involucra derivadas de primer orden no lineales, esto es, la fuerza que actúa sobre el péndulo no es directamente proporcional al ángulo que forma éste con la vertical apuntando en dirección al campo gravitacional. Resolver exactamente la ecuación (3) es complicado y requiere de funciones eĺıpticas. La ecuación (4b) es una ecuación no lineal y no puede resolverse en términos de funciones elementales; el peŕıodo del péndulo está dado por (5) T = 4 √ l g ∫ π 2 0 dϕ √ 1− k2 sin2 ϕ , k = sin θ0 2 , en donde la integral es llamada eĺıptica de primera clase; resolviendo se obtiene (6) T = 2π √ l g [ 1 + ( 1 2 )2 k2 + ( 1,3 2,4 )2 k2 + ( 1,3,5 2,4,6 )2 k6 + . . . ] Por ello, para fines prácticos se usa la aproximación de ángulos pequeños sin θ ≃ θ, y la ecuación (3) se convierte en una ecuación lineal (7) d2θ dt2 + g θ l = 0 , cuyas soluciones son (8) θ = A sin √ g l t+B cos √ g l t , ω = √ g l , y el peŕıodo es (9) T = 2π √ l g = 2π ω , una fórmula práctica, válida únicamente para ángulos pequeños. En problemas bastante más complicados, en donde no es posible cono- cer las soluciones exacta y cuantitativamente, se puede avanzar bastante si se conocen las caracteŕısticas fundamentales de manera cualitativa usando diagramas sencillos llamados diagramas fase. Por ejemplo, el péndulo simple es un sistema cuyo Hamiltoniano es (10) H = 1 2I J2 +mgl (1− cos θ) , donde J = Iω es el momento angular con I el momento de inercia del sistema I = ml2. Las trayectorias del péndulo ideal en el espacio fase se muestran en 6 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. −8 −6 −4 −2 2 4 6 8 ω −π −2 −1 1 2 π θ Figura 1.5. Trayectorias en el espacio fase del péndulo descrito por el Hamiltoniano de la ec. (10) para m = 1, l = 1, g = 10. la figura 1.5; en esta figura puede verse que las trayectorias en el espacio fase son cerradas para amplitudes de oscilación menores que |π|. Esta amplitud máxima constituye el punto de separación de las trayectorias de no retorno para las oscilaciones del péndulo. Arriba de esta amplitud máxima, esto es, cuando se aplica una enerǵıa mayor a la enerǵıa potencial en el extremo más alto θ = π, el péndulo gira de manera indefinida en una sola dirección. Observando el espacio fase de la figura 1.5, nos damos cuenta de que los puntos θ = −π y θ = π aparecen separados y distantes cuando en realidad son uno mismo. Corresponden a la posición en la que el péndulo se halla verticalmente sobre la varilla en un equilibrio inestable, este punto es único independientemente de cómo se haya llegado a él, girando a la derecha o a la izquierda. Ocurre porque se trata de mapear ángulos, que residen en un circulo, a números, que residen en una recta. En realidad -π y π son lo mismo que −2π, 2π; −3π, 3π; . . . ,−nπ, nπ. Del otro lado, sin embargo, en el eje ω, la situación es diferente. No es necesario unir los extremos verticales del dibujo. Enrollando pues, el diagrama fase del péndulo simple se obtiene la figura 1.6. Una forma más clara de ver las enerǵıas mencionadas es la siguiente: si se dobla el tubo alargado que se ha constrúıdo (figura 1.6) en forma de U mapeando el origen (0, 0) al fondo del tubo se distingue de inmediato (figura 1.7) el mı́nimo de enerǵıa, la existencia de la trayectoria de no retorno y la forma bifurcada en la que se puede crecer indefinidamente en la enerǵıa. Se observa también cómo en los estados bajos hay curvaturas que corresponden a mı́nimos y máximos de θ y ω. Esto es porque el rango de enerǵıas en las que se encuentran es menor a la enerǵıa potencial del péndulo en π. A medida que se da un impulso más y más fuerte al péndulo, la enerǵıa es muy grande comparada con dicha enerǵıa potencial, la cual llega a ser despreciable y las 2. COMPORTAMIENTO EN EL ESPACIO FASE 7 Figura 1.6. Trayectorias en el espacio fase del péndulo descrito por el Hamiltoniano de la ec. (10) para m = 1, l = 1, g = 10. El punto sobre la curva azul (la última trayectoria cerrada de la figura 1.5) representa el punto θ = ±π. trayectorias en los cuernos de la U crecen de forma cont́ınua hasta el infinito acercándose más a una forma circular, donde los movimientos giratorios son cada vez más rápidos. 2.1. Teorema de Liouville. El ejemplo anterior pone de manifiesto la importancia del espacio fase como auxiliar para entender comportamientos de problemas de dif́ıcil solución anaĺıtica. Un resultado interesante relaciona- do con este espacio es el teorema de Liouville. En los sistemas dinámicos, la evolución temporal de cualquier región en el espacio fase conduce en general a otra región de forma diferente. Para los sistemas dinámicos conservativos, como el caso del péndulo simple (10), el teorema de Liouville afirma que, a pesar de la traslación y el cambio de forma, el “volumen” total de cual- quier región en el espacio fase permanecerá invariante en el transcurso del tiempo. Dicho de otro modo, la evolución temporal de una ”nube”de puntos en el espacio fase, al desplazarse sobre la trayectoria de cada uno de sus puntos mediante una transformación canónica, cambiará de forma y posi- ción, aunque mantendrá su volumen total, como si se tratara de un fluido 8 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. Figura 1.7. Representación del espacio fase del péndulo simple en una geometŕıa más conveniente en donde se separan las trayectoriasabiertas en un par de ciĺındros (arriba) y cerradas (abajo). El punto θ = ±π se encuentra en el punto de bifurcación (c.f. figura 1.6). incompresible. El teorema puede expresarse en términos del paréntesis de Poisson como ∂ρ ∂t = −{ ρ,H } , en donde ρ es la densidad de puntos en el espacio fase. Por otro lado, en el caso de sistemas no conservativos, como el caso de un péndulo con fricción, el volumen en el espacio fase se contrae, esto es, se trata de sistemas disipativos. El sistema de Lorenz (1) tampoco cumple con el teorema de Liouville. Sistemas disipativos como estos pueden ser atráıdos de manera automática hacia un punto fijo, hacia un ciclo ĺımite o puede bifurcarse en el espacio fase en tanto éste se contrae. 2.2. Poincaré y el problema de tres cuerpos. A fines del siglo XVIII, la reformulación de la mecánica newtoniana haćıa afirmar a Laplace que si se conociera la velocidad y la posición de todas las part́ıculas del uni- verso en un determinado instante en el tiempo, entonces se podŕıa predecir el futuro y averiguar el pasado. Naturalmente, y por razones filosóficas, el problema desconcertó a muchos, hasta que, a principios del siglo XX con el advenimiento de la mecánica cuántica, quedó en evidencia la ilusión: no es posible conocer la posición y la velocidad de una part́ıcula al mismo tiem- po. En este caṕıtulo se han analizado problemas en las cuales se demuestra que, aún dentro del marco teórico de la f́ısica clásica, existen situaciones en las que una variación pequeña en las condiciones iniciales basta para hacer diverger las trayectorias de los sistemas en el espacio fase. Más aún, estos sistemas son la regla y no la excepción en la naturaleza. 3. PARA BUSCAR EL CAOS 9 La evolución histórica de la mecánica ha estado marcada por los estu- dios a los que se ha aplicado. Newton, igual que Laplace y los mecánicos del siglo XIX la aplicaron principalmente a la astronomı́a. Este interés condujo al problema de los tres cuerpos que se hab́ıa mantenido irresoluble. A finales del siglo XIX Henri Poincaré se vio atráıdo a él por una cuestión planteada en 1887 por el rey Oscar II de Suecia quien instituyó una competencia ma- temática cuyo objetivo era contestar a la pregunta ¿es el Sistema Solar un sistema estable?, ó ¿podŕıa en el futuro la Tierra o algún otro planeta des- prenderse o colisionar? Poincaré señaló entonces que el problema no hab́ıa sido planteado correctamente, y que de esa forma nadie lograŕıa obtener una solución completa para el mismo. Su trabajo fue tan notable, que el jurado decidió otorgarle el premio. La conclusión principal de Poincaré esta- blećıa que la evolución de un sistema como el problema de los tres cuerpos era extremadamente caótica, en el sentido que una pequeña perturbación en el estado inicial (como por ejemplo una mı́nima variación en la posición inicial de un cuerpo) pod́ıa llevar eventualmente a un estado radicalmente diferente. A su ensayo de 1890 sobre el tema, Poincaré lo tituló “El problema de los tres cuerpos y las ecuaciones de la dinámica”. En su informe, Poincaré plan- teaba nuevas ideas matemáticas que hoy se consideran los comienzos de la teoŕıa del caos. En el mencionado problema se supone que sólo existen en el universo tres cuerpos sujetos a la fuerza gravitacional. En particular esta es la situación en la que la masa de dos de tales cuerpos es aproximadamente igual y bastante más grande que la del tercero, de forma que éste último es una pequeña part́ıcula (modelo de Hill de 1877). En ese caso los dos pri- meros giran periódicamente alrededor de su centro de masa en tanto que el tercer cuerpo es llevado de manera errática de uno a otro lado por el campo cambiante de sus compañeros gigantes. Poincaré toma el sistema en un de- terminado punto en el espacio fase, y observa que, si en un instante futuro el sistema está exactamente en el mismo punto, la unicidad de las ecuaciones diferenciales que gobiernan su evolución implica que el movimiento es pe- riódico. Con esta idea, el problema de investigar toda la dinámica se reduce, a estudiar la “vecindad” de ciertas condiciones iniciales. Esta “vecindad” es llamada Superficie de Sección de Poincaré (SSP). 3. Para buscar el caos Los matemáticos han desarrollado diferentes formas para establecer de manera cuantitativa cuándo un sistema es caótico. Ejemplos de estas formas son, la dimension fractal de los atractores, los exponentes de Liapunov, ma- peos de retorno, mapeos de Poincaré, diagramas de bifurcación, etc. (veáse por ejemplo la Ref. [1]). Por otra parte, el teorema de integrabilidad de Liouville afirma que: “Un sistema dinámico con n grados de libertad cuyo hamiltoniano H (q, p) 10 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. no depende expĺıcitamente del tiempo, y con n cantidades conservadas in- dependientes Fk (q, p), k = 1, 2, . . . n, cuyos paréntesis de Poisson son nulos i.e. {Fi , Fj} = 0, i, j = 1, . . . n, es resoluble por cuadraturas”. Es este un teorema de existencia que no nos dice cómo encontrar las cantidades con- servadas. En todo caso estos problemas son regulares. ¿Qué pasa si no se tiene la certeza acerca de esto? Una solución numérica es posible. Un siste- ma dinámico puede darnos un conjunto de puntos (t0, x (t0)) , (t1, x (t1)) , ... (tn, x (tn)) que se podŕıa analizar como una serie de tiempo. ¿Conduciŕıa esto a alguna parte? Definitivamente: en el estudio de señales se ha aplicado con éxito el análisis de Fourier y es lo que se hace también aqúı en esta Tesis. 3.1. Espectro de Potencias. Definición La transformada de Fourier de una función continua f(t) se define como (11) f(ν) ≡ Ft[f(t)](ν) = ∫ +∞ −∞ f(t) e−2πiν t dt , en donde usualmente la variable t se interpreta como el tiempo, y a ν como la frecuencia. La transformada de Fourier (11) es una representación de la función f(t) en el espacio de frecuencias, es decir en términos de una super- posición cont́ınua de funciones periódicas. Se puede hacer una generalización al caso de una función discretizada, f(t) → f(tn) ≡ fn con tn ≡ n∆t, con n = 0, ..., N − 1 (a ∆t se le denomina intervalo de muestreo). La transfor- mada discreta de Fourier de la serie de tiempo {f0, ...fN−1} viene dada por la secuencia {F0, ...FN−1}, en donde (12) Fk = N−1 ∑ n=0 fn e −2πi k n /N , k = 0 . . . N − 1 . La transformada inversa esta definida por (13) fn = 1 N N−1 ∑ k=0 Fk e 2πin k /N , n = 0 . . . N − 1 . Las transformadas de Fourier discretas son muy útiles porque revelan periodicidades en los datos de entrada, asi como también de las intensida- des relativas de cualquier componente periodica. En general, la transformada discreta de Fourier de una secuencia de números reales {f0, ...fN−1; fi ∈ R} , será una secuencia (de la misma longitud) de números complejos {F0, ...FN−1; Fi ∈ C}. En particular si los valores fk son reales, entonces FN−n y Fn estan relacionadas por FN−n = F ∗ n , para n = 0, 1, ..., N − 1, en donde z∗ denota el complejo conjugado. Esto significa que la componen- te F0 (DC-term, término de corriente directa, en la jerga de los ingenieros electrónicos) siempre es real para datos reales. Como resultado de la relación anterior, la transformada de Fourier de una función real periodica tendrá pi- cos no en un solo lugar, sino por pares. Esto ocurre porque los periodos de los datos de entrada se dividen en componentes complejas de frecuencias “positivas” y “negativas”. 3. PARA BUSCAR EL CAOS 11 −1.5 −1 −0.5 0 0.5 1 1.5 100 200 300 400 fn n −4 −3 −2 −1 0 1 2 3 4 100 200 300 400 fn n (a) (b) 0 20 40 60 80 100 50 100 150 200 P (k) k 0 20 40 60 80 100 50 100 150 200 P (k) k (c) (d) Figura 1.8. Series f(n) correspondientes a un movimiento periódico (a) y a un movimiento cuasi-periódico (b) y sus correspondientes espectros de potencias P (k), en (c) y (d). El espectro de potencias P (k), nos da la intensidad con la queinterviene el término con frecuencia k en la representación de Fourier {Fk, k = 0 . . . N− 1}, y esta definido por: (14) P (k) = |Fk|2 , k = 0 . . . N − 1. El análisis espectral nos dice cómo se comporta el sistema: 1. El caso más sencillo es aquel en el cual existe una periodicidad en la serie de tiempo {f0, f1...fN−1} la que corresponde a una frecuencia k(i) (ω(i)). En la figura 1.8a puede verse graficado este caso. De un lado se muestra la gráfica f(t) contra t. Siendo buen observador se puede decir que el movimiento es periódico, como en realidad lo confirma la gráfica 1.8c correspondiente al espectro de potencias. Aqúı no hay mayor complicación, podŕıa tratarse del movimiento de la Tierra alrededor del Sol o el de la Luna o cualquier otro satélite alrededor de la Tierra. 2. El siguiente caso es el movimiento cuasiperiódico, es decir un movi- miento con n frecuencias k(1), k(2), . . . k(n), (ω(1), ω(2), . . . ω(n)). Su espectro de potencias mostrará frecuencias de la forma ω = m1ω1 + m2ω2 + . . .+ mrωr, las cuales pueden ser muy complicadas. Casos 12 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. f́ısicos suelen presentar de manera más importante un número me- nor de frecuencias, ante las cuáles es posible despreciar a las otras. Sea el caso biperiódico con ω = m1ω1 + m2ω2. En este caso si ω1 ω2 es racional, el movimiento es periódico y el periodo es un múltiplo de ω1 y ω2. Si por el contrario ω1 ω2 es irracional el movimiento no se repite nunca, aunque se acerca a los periodos aproximados, frac- ciones próximas a ω1ω2 . En la figura 1.8b se muestra la gráfica de un movimiento cuasiperiódico y su espectro de potencias en 1.8d. 3. Otro tipo de movimiento es el llamado aperiódico. No tienen una frecuencia dominante sino más bien presentan un cont́ınuo que pue- de variar con dependencia en k. En la figura 1.9 se muestra el caso ilustrativo de la transición de un sistema regular a cuasiperiódico y caótico. Este ejemplo presenta la convección de Bénard con una variación del parámetro de Rayleigh, que indica la diferencia de tem- peraturas entre las placas superior e inferior en el sistema que se analiza. 3.2. Atractores y mapas de Poincaré. Poincaré hab́ıa rea- lizado el análisis del comportamiento de las soluciones a ecuaciones diferenciales en dos dimensiones. El teorema de Poincaré-Bendixson nos dice que el comportamiento de dichos sistemas es tal que si se sigue sobre una trayectoria del espacio fase correspondiente a ciertas condiciones iniciales, se llegará invariablemente a uno de los siguien- tes casos: a un sumidero, a una fuente, a una silla de montar, o a un ciclo ĺımite, si bien, son posibles comportamientos extraños en casos aislados. En esencia la forma en que se comportan los sistemas en dos dimensiones es esa. Poincaré no pudo demostrar que ese era el comportamiento t́ıpico para sistemas en más dimensiones. Final- mente después de casi un siglo después de Poincaré, el matemático estadounidense Stephen Smale a principios de la década de 1960 de- mostró que en sistemas de dimensiones mayores a dos, exist́ıan otros comportamientos denominados atractores extraños. Este es el caso del modelo de Lorenz descrito por las ecuaciones diferenciales (1). El sistema de ecuaciones de Lorenz modela las corrientes de convección de la atmósfera por medio de anillos de aire caliente (figura 1.1). El llamado efecto mariposa puede observarse de la figura 1.4, En general se observa cómo dos trayectorias que inician muy cerca una de otra con el tiempo terminan muy separadas, si bien dentro del atractor pueden estar en alas opuestas del atractor extraño mostra- do en la figura 1.3. Existe una multitud de problemas con SFCI que presentan atrac- tores extraños. Del ejemplo presentado puede observarse que un 3. PARA BUSCAR EL CAOS 13 Figura 1.9. Espectro de potencias de la dependencia tem- poral de la velocidad radial correspondiente a la transición de un reǵımen regular a un régimen caótico en el problema de la convección de Bénard (ver Ref. [3]). atractor es un conjunto al que convergen todas las trayectorias cer- canas, de hecho estarán en él para t → ∞. Los atractores extraños además presentan SFCI y tienen tipicamente una estructura fractal. 3.2.1. Modelo de Hénon y Heiles. Algunos sistemas dinámicos exhiben una transición desde un movimiento regular hasta un régi- men caótico cuando se vaŕıa algún parámetro del sistema. El primero de estos sistemas fue descubierto en 1963 en un estudio pionero por 14 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. (a) (b) (c) Figura 1.10. Mapas de Poincare para el caso periodico (a), para el caso con muchos periodos (b) y para el caso caótico (c). H = .4166600000e−1; py y −0.4 −0.2 0 0.2 0.4 0.4 0.2 0 −0.2 −0.4 (a) H = .8333300000e−1; y py −0.4 −0.2 0 −0.4 0.2 −0.2 0.2 0.4 0 0.4 (b) H = .1249990000; y py 0.4 0.2 0 −0.2 −0.4 −0.4 −0.2 0 0.2 0.4 (c) H = .1666660000; y py 0.4 0.2 0 −0.4 −0.2 −0.4 −0.2 0 0.2 0.4 (d) Figura 1.11. Secciones de Poincaré para el sistema de Hénon-Heiles (15). Transición del regimen regular E =0.04166 (a), al régimen caótico E =0.16666 (d). Las sec- ciones fueron calculadas con la función poincare del paquete DEtools de maple 10. Hénon y Heiles2. El sistema de dinámico de Hénon y Heiles es un 2Los astrónomoss Michel Hénon y Carl Heiles [4] descubrieron que el Hamiltoniano (15), describe la fuerza que experimenta una estrella que se mueve en una galaxia con 3. PARA BUSCAR EL CAOS 15 sistema de dos grados de libertad descrito por el Hamiltoniano (15) H = 1 2 (p2x + p 2 y) + 1 2 (x2 + y2) + α(x2y − 1 3 y3) . Este sistema exhibe una transición de un régimen regular a un régimen caótico como función de la enerǵıa del sistema. La figu- ra 1.11 muestra los mapeos de Poincaré para el sistema de Hénon y Heiles (15) correspondientes a la transición del regimen regular (H = E =0.04166 –Fig. 1.11a), al régimen caótico (H = E =0.16666 –Fig. 1.11d). La figura 1.11a muestra que a bajas enerǵıas la ma- yoŕıa de las órbitas del sistema de Hénon y Heiles residen en toros invariantes, mientras que al aumentar dicha enerǵıa, comienzan a aparecer bifurcaciones de las curvas invariantes que aparecen en la SSP (Fig. 1.11b) seguidas de un crecimiento rápido del área cubierta por las regiones caóticas (Fig. 1.11c,d). A diferencia de un sistema periódico o cuasiperiódico (figuras 1.10(a) y 1.10(b)) que muestran un número finito de puntos por los que el sistema cruza el mapa de Poincare, otros sistemas como los sistemas de tres cuerpos, el sistema de Lorenz, el sistema de Henon y Heiles etc., muestran figuras cont́ınuas complicadas que hacen prac- ticamente imposible la detección del punto siguiente (véase la figura 1.11 para el caso de Henon y Heiles). En palabras de Ian Stewart: Es algo aśı como un autobús que recorre una ciudad, pasando repetida- mente por la plaza central, pero escogiendo, cada vez al azar, de entre un millón de paradas diferentes que hay en la misma plaza. Puede verse el autobús viniendo una y otra vez, sabiendo que parará en la plaza, pero no se tiene idea de en qué parada esperarlo [5]. 3.3. Exponente de Lyapunov. En esta sección vamos a in- troducir el importante concepto de exponente de Lyapunov, que nos permitirá caracterizar y clasificar a los sistemas dinámicos caóticos por su sensitividad a variaciones pequeñas en sus condiciones inicia- les. Consideremos para empezar un ejemplo concreto: la aplicación loǵıstica3. La aplicación loǵıstica es un mapeo definido por la relación recursiva (16) xn+1 = rxn(1− xn) , x ∈ (0, 1) . en donde r ∈ (1, 4) es un parámetro que determina el comportamien- to del mapeo. Es un ejemplo simple de un sistema que exhibe caos. Asi pues, lo que es importante mencionar aqúı es el comportamiento simetŕıa ciĺındrica, la cual da oŕıgen a órbitas regulares para algunas condiciones, y órbitasirregulares (caóticas) para otras condiciones iniciales. 3Este mapeo se presenta y analiza con cierto detalle en el Apéndice C de este trabajo. 16 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. del mapeo para dos puntos iniciales, x y x+ǫ, que empiezan relativa- mente cerca el uno del otro, i.e. ǫ/x≪ 1. Después de N iteraciones, la distancia entre los puntos correspondientes es una cantidad que viene dada por la función |fN (x+ ǫ)−fN(x)| = g(x, ǫ,N), en donde f(x) = r x(1 − x). La relación exacta que da la distancia entre los puntos después de N iteraciones la podemos definir convenientemen- te como (17) g(x, ǫ,N) = ǫeNλ(x) , en donde λ(x) es llamado el exponente de Lyapunov de x, y es, en su forma más general, una medida de la contracción o alejamiento de los puntos en el espacio fase. De esta definición es claro que si el exponente de Lyapunov es positivo, entonces los puntos se alejarán en forma exponencial con el número de iteraciones, manifestando aśı la presencia de caos. Si se despeja, el exponente de Lyapunov es el siguiente: (18) λ(x) = 1 N ln fN(x+ ǫ)− fN (x) ǫ . Llevado al ĺımite en el cual N → ∞ y ǫ→ 0 el exponente de Lyapu- nov se transforma en: (19) λ(x) = ĺım N→∞ 1 N ln ∣ ∣ ∣ dfN (x0) dx0 ∣ ∣ ∣. Este resultado se puede escribir de una manera diferente si se usa la regla de la cadena para derivar f2(x) ddxf 2(x)|x0 = f ′ [f(x1)]f ′ (x0) con lo cual el exponente de Lyapunov puede expresarse como: (20) λ(x0) = ĺım N−→∞ 1 N ∑ i=0 ln |f ′(xi)| . Lo que se puede ver de la ec.(20) es que cuando el valor absoluto de la derivada es mayor que 1, entonces el logaŕıtmo es positivo; si los sucesivos puntos divergen, entonces el promedio de los logaŕıtmos del valor absoluto de la derivada es positivo. Esto permite dar una definición de comportamiento caótico: Un mapeo unidimensional tiene trayectorias caóticas para un valor particular del parámetro si el exponente de Lyapunov es positivo para ese valor del parámetro. Con este resultado es posible calcular el exponente de Lyapunov como función de r para la aplicación loǵıstica de la ecuación (16). Los resultados4 se muestran en la figura 1.12. Las zonas en las que el 4Esta gráfica fue hecha a partir de un código computacional escrito en lenguaje C++ presentado en el Apéndice D. 3. PARA BUSCAR EL CAOS 17 -5 -4 -3 -2 -1 0 1 1 1.5 2 2.5 3 3.5 4 λ X 0 ’Datos.dat’ Figura 1.12. El exponente de Lyapunov para la aplicación loǵıstica (16) desde r = 1 hasta r = 4. Las regiones en las que el exponente es positivo, tienen comportamiento caótico. Es- ta figura fue hecha con el programa mostrado en el Apéndice D exponente de Lyapunov es positivo son zonas caóticas, coincidiendo con lo dicho arriba. Es conveniente comparar la figura 1.12 con la figura 2 del Apéndi- ce D, en la cual se muestra cómo la aplicación loǵıstica va pasando por reǵımenes de periodicidad hasta llegar a zonas en las que su comportamiento se vuelve caótico. Si se hiciera un acercamiento a la figura 1.12 en esas zonas, modificando el programa del apéndice D para hacer que r varie mas lentamente, podŕıan verse pequeñas secciones en las que los valores del exponente de Lyapunov están por debajo de 0. La razón de esto es debido a la estructura fractal del mapeo. Este es un caso relativamente sencillo en el que se estudia un mapeo unidimensional. Sin embargo también se puede tener el caso de un mapeo de más dimensiones. Por ejemplo, sea uno de la forma (21) xn+1 = f(xn, yn), yn+1 = f(xn, yn) , en el cual la posición del sistema en el momento n está dado por el vector zn = ( xn yn ) , 18 1. CONCEPTOS BÁSICOS Y EJEMPLOS DEL CAOS CLÁSICO. y, δzn se puede escribir como δzn = ( δxn δyn ) , δzn = ( ∂f(xn,yn) ∂xn δxn ∂f(xn,yn) ∂yn δyn ∂f(xn,yn) ∂yn δxn f(xn,yn) ∂yn δyn ) , entonces este vector se puede escribir como (22) δzn+1 = Anδzn , donde An = ( ∂f(xn,yn) ∂xn ∂f(xn,yn) ∂yn ∂f(xn,yn) ∂yn f(xn,yn) ∂yn ) . Por medio de aplicar sucesivamente la relación (22) es posible encontrar la desviación estre los puntos de inicio después de n pasos (23) δzn = An−1, An−2......A0 = Qnδz0 donde Qn es, por definición, el producto de las matrices An−1 An−2 . . . A0 Trabajando en la base de eigenvectores ei de la matriz Qn, la desviación inicial entre los puntos viene dada de la forma (24) δz0 = ∑ i aiei(n) donde ai son las coordenadas de las desviación inicial en la base (e1, e2). Y la desviación después del n-ésimo paso en la nueva base es (25) δzn = Qn ∑ i aiei(n) = ∑ aiνi(n)ei(n) Hay que recordar que Qnei(n) = νi(n)ei(n), lo cual se ha usado en la ecuación (25). Con esto es posible introducir el exponente de Lyapunov a lo largo de las direcciones determinadas por los vectores ei: νi(n) ∼ eλin que, cuando N es muy grande, queda de la siguiente manera: (26) λi(x) = ĺım N−→∞ ln νi(n) n . 4. CONCLUSIÓN 19 4. Conclusión Los ejemplos presentados en este caṕıtulo muestran caracteŕısti- cas extrañas e inexploradas durante siglos por matemáticos y f́ısicos. Poincaré hizo atisbos, si bien puede decirse que fue Lorenz quien abrió las puertas a un nuevo campo de investigación que ahora es conocido como caos. Estas caracteŕısticas nos permiten identificar si hay, o no, caos en un sistema clásico descrito por ecuaciones dife- renciales cont́ınuas. En resumen estas caracteŕısticas son: Las tra- yectorias en el espacio fase no tienden a un punto fijo, a una órbita periódica o cuasiperiódica cuando t→ ∞ , las ecuaciones que la mo- delan son no lineales, las trayectorias que comienzan cerca, o con las mismas condiciones iniciales, con el tiempo se separan exponen- cialmente; además, el volumen en el espacio fase se contrae. El siglo pasado trajo para la f́ısica dos grandes teoŕıas, la mecánica cuántica y la relatividad; para muchos la tercera gran teoŕıa es la del caos, su estudio es imperativo no sólo para f́ısicos y matemáticos, sino tam- bién para biólogos, médicos. ingenieros, economistas, sociólogos... Caṕıtulo 2 Invariancia de Escala 1. Leyes de potencias Existe una gran variedad de fenómenos naturales caracterizados por parámetros cuyo comportamiento siguen una ley de potencias. A este tipo de comportamiento se le llama escalamiento. Una de las primeras observaciones de una ley de escalamiento se debe a Kepler quien descubrió emṕıricamente que los cuadrados de los periodos de rotación de los planetas alrededor del Sol se escalan como el cubo de los radios de sus órbitas. Esta ley emṕırica le permitió a Newton descubrir su famosa ley de gravitación del inverso cua- drado. En el siglo diecinueve, se llegó a la conclusión de que muchos fenóme- nos f́ısicos pueden ser descritos por ecuaciones diferenciales parciales cuyas soluciones, frecuentemente, dan lugar a leyes de escalamiento universales. Luego, en el siglo veinte, se encontró que las leyes de potencias describen a varios sistemas termodinámicos en la vecindad de los puntos cŕıticos. Estos incluyen no sólo sistemas de part́ıculas en interacción como los ĺıquidos y los imanes, sino también sistemas puramente geométricos tales como las redes aleatorias. Las leyes de potencias son comunes en distintos problemas no sólo en f́ısica, sino en ingenieŕıa y bioloǵıa Desde el punto de vista matemático, una ley de potencia es una relación entre dos variables de la forma (27) f(x) = a xk . Es un monomio en x con k (exponente de escalamiento) y a constantes. Las funciones de leyes de potencia son llamadas funciones escalantes e implican que no existe una escala o tamaño t́ıpico: multiplicar a la variable indepen- diente por una constante conduce a la función primitiva multiplicada por otra constante. f(λx) = aλk xk = λk f(x) , El comportamiento o forma de la función siempre será la misma cuando se haga un “alejamiento” o un “acercamiento” variando el factor de escala1. Cuando se trabaja con datos experimentales, no obstante, es prácticacomún tomar el logaritmo de las mediciones antes de graficarlas; entonces puede verse que hay algo más profundo en la relación (27) y que, sólo entonces, se 1Existen muchos ejemplos de leyes de potencias como la Ley de Stefan Boltzmann que establece que la enerǵıa total radiada por unidad de superficie por unidad de tiempo de un cuerpo negro, es directamente proporcional a la cuarta potencia de la temperatura del cuerpo negro, i.e. j ∝ T 4. 21 22 2. INVARIANCIA DE ESCALA hace evidente. Tomando el logaritmo en ambos lados de la ecuación (27), se obtiene una relación lineal log f(x) = k log x+ log a . La pendiente en esta relación lineal es precisamente el exponente de es- calamiento. Un reescalamiento del argumento produce un desplazamiento de la función pero la forma lineal permanece inalterada aśı que continúa tratándose de la misma ley de potencias. Las rectas, el plano y el espacio son invariantes por traslaciones y por cambios de escala. Leibniz defińıa una recta como ((una curva tal que cada una de sus partes es semejante al to- do, y es la única con esta propiedad, no sólo entre las curvas sino entre los conjuntos)). La forma de la ecuación (27) implica una invarianza que se opone a los decaimientos exponenciales del tipo e−γ(x−x0). El hecho es que, aún cuando se espere un comportamiento exponencial, muchos fenómenos en la natura- leza presentan un comportamiento de la forma de la ecuación (27). Las leyes de potencia son muy importantes como se ha dicho; la ley de la gravitación universal vaŕıa como una potencia del inverso de la distancia entre dos cuerpos con masa; la ley es válida tanto si dicha distancia se mide en metros, en kilometros, miles o millones de kilometros. Otros ejemplos de leyes de potencias en la f́ısica son: la ley de Stefan-Boltzmann y el comporta- miento de algunas cantidades termodinámicas, como la capacidad caloŕıfica o la suceptibilidad magnética, cerca de las transciones de fase de segundo orden que involucran exponentes cŕıticos, etc. (veáse por ejemplo [6]). 2. Fractales Existen también en la naturaleza fenómenos que presentan una inva- rianza restringida. El inglés Robert Brown analizó en 1828 el movimiento de part́ıculas de polen suspendidas en un ĺıquido. En la figura 2.1 se muestra una gráfica de tal movimiento. Pueden observarse los puntos de inicio y de llegada de la part́ıcula a través de los cuales no hay una ĺınea recta sino un vaivén en zig zag. Si se toma una escala de tiempo más pequeña para averiguar cómo se comporta la part́ıcula entre dos puntos A y B, se obtiene una gráfica similar a la de la figura 2.1. El movimiento Browniano fue analizado a principios del siglo XX por Jean Perrin, el cual lo propuso como ejemplo de lo alejado que estaban las matemáticas de describir la naturaleza tal cual es. En particular hizo hincapié en el hecho de que tal curva era cont́ınua sin tener derivada, además de que no sólo se trataba de un caso aislado, sino de las formas dominantes de la naturaleza. ((Aunque las funciones diferenciables son las más simples y las más fáciles de manejar, son una excepción. Hablando en términos geométricos, lo normal son las curvas sin tangente, mientras que las curvas regulares, como el ćırculo, son casos interesantes pero muy particulares)). Los matemáticos teńıan las mismas preocupaciones que Perrin. Más o menos por 2. FRACTALES 23 1 2 3 4 5 x 1 2 3 4 y Figura 2.1. Movimiento Browniano. la misma fecha, el matemático sueco H. Von Koch propuso otro ejemplo de curva cont́ınua sin derivada en ninguno de sus puntos. La curva es llamada el copo de nieve de Von Koch y es tan bella e ilustrativa que ha llegado a ser bastante conocida. Von Koch comienza con un triángulo equilátero, figura 2.2a, al cual se le superpone otro triángulo igual para formar una estrella de David (figura 2.2b). Se repite este proceso (figura 2.2c) de manera indefinida. Von Koch también llamó la atención sobre el hecho de que la figura obtenida en el ĺımite de infinitas iteraciones, es finita siendo su peŕımetro infinito. Al observar la f́ıgura 2.2d se tiene la sensación de que, si bien la curva no es bidimensional, tampoco parece ser con exactitud una ĺınea unidimensional. Considérese ahora el llamado polvo de Cantor. Este conjunto se contru- ye mediante un algoritmo bastante fácil: tómese un segmento de recta de longitud 1, tal como se ve en la parte superior de la figura 2.3, div́ıdase el segmento en 3 partes iguales y qúıtese el tercio de enmedio dejando los puntos finales. Hágase lo mismo con los dos segmentos de longitud de 1/3 restantes. Por último, reṕıtase el procedimiento de manera indefinida. Lo que queda al final es un conjunto llamado el polvo de Cantor (figura 2.3) que parece tener una dimensión intermedia entre el punto de dimensión cero, y la recta de dimensión uno. Estos ejemplos sugieren que debeŕıa definirse mejor lo que se entiende por dimensión. Estas ideas han sido estudiadas de manera rigurosa por los matemáticos. La dimension topológica es intuitiva desde Euclides, se esboza en Poincaré y se formaliza con Brouwer, Menger, Urrsohn y Lebesgue. Lebesgue usa el método de recubrir un objeto con otro. Aśı por ejemplo, al cubrir una ĺınea con segmentos muy pequeños, hay algunos puntos en la ĺınea que estan en dos de dichos segmentos. 24 2. INVARIANCIA DE ESCALA (a) (b) (c) (d) Figura 2.2. Copo de nieve de Von Koch. Figura 2.3. Polvo de Cantor. Por otro lado, el matemático alemán Félix Hausdorff hizó una generali- zación al concepto de dimensión para incluir objetos como el copo de nieve de Von Koch y el polvo de Cantor. De nuevo la idea es cubrir con hipercubos de n−dimensión un conjunto que vive en un espacio euclidiano de dimensión n, debe de hacerse de tal forma que cada punto del conjunto esté en al menos en un hipercubo de lado εk. Se define ahora: (28) ld (ε) = ı́nf ∑ k ( εK d ) , donde el ı́nfimo se toma sobre los hipercubos con εk ≤ k 2. FRACTALES 25 Sea ahora ld = ĺımε→o ld (ε). Existe entonces un valor d = dH tal que cualquier valor de ld = 0 y para cualquier valor de ld = ∞, dH se conoce como la dimensión de Haussdorf. Si por ejemplo, se trata un conjunto que vive en el espacio tridimen- sional y buscamos el número N (ε) de cubos de todo ε que son necesarios para cubrirlo y el conjunto es una curva de longitud L, se puede decir que N (ε) ∼ l/ε, para una superficie de área S, N (ε) ∼ S/ε2 y para un volumen N (ε) ∼ V/ε3. Para una hipersuperficie viviendo en un espacio generado por d vectores base, el número N (ε) de hipercubos necesarios para cubrirla es: N (ε) ∼ Hipervol X εd . En los cuatro casos puede observarse lo siguiente: N (ε) ∼ L ε , N (ε) ∼ S ε2 , N (ε) ∼ N ε3 , N (ε) ∼ Hipervol X εd , Si se busca d se tiene : εd = Hipervol X N (ε) , y dε→0 = − lnN (ε) ln (ε) . Por ejemplo, se presentan en el cuadro siguiente los casos del copo de nieve, el polvo de Cantor y la salchicha de Minkowsky. Puede verse que ε es el segmento mı́nimo que se necesita para reproducir la figura. También puede generalizarse para hipersegmentos, o ladrillos base, como se muestra a continuación. partes escaladas por se cumple N ε = 1N Nε 1 = 1 N ε = 1 N1/2 Nε2 = 1 N ε = 1 N1/3 Nε3 = 1 en general, Nεd = 1 , y (29) dH = logN log ε . 26 2. INVARIANCIA DE ESCALA El trabajo de Haussdorf fue terminado por el matamático ruso Besico- vitch, aśı que la dimensión dH es llamada la dimensión Haussdorf-Besicovitch. Para las figuras geométricas euclidianas la dimensión topológica y la dimensión de Haussdorf-Besicovitch dH es igual, en tanto que para ciertos objetos, como los mencionados copo de nieve de Von Koch, salchicha de Minkowsky y polvo de Cantor, dH es mayor que la dimensión topológica. Tales conjuntos son llamados fractales, término introducido por el matemáti- co francés Benôıt Mandelbrot. Según Mandelbrot [7] ((Un fractal es por definición, un conjunto cuya dimensiónde Haussdorf- Besicovitch es estrictamente mayor que su dimensión topológica)) El surgimiento de la geometŕıa fractal convirtió a algunos objetos que con anterioridad se consideraban irregularidades indeseables, en instrumen- tos para describir con exactitud las formas naturales. Aśı como se ha men- cionado el movimiento browniano, existe un sinnúmero de fenómenos que son estudiados por la geometŕıa fractal. Richard F. Voss [8] presenta el siguiente cuadro comparativo de las dos geometŕıas: Euclideana Fractal Tradicional (>2000 años) Moderna (˜30 años) basada en tamaño o escala caracteŕıstica sin tamaño espećıfico se ajusta a objetos hechos por el hombre describe formas naturales descrita por fórmulas descrito por algoritmos 2.1. Ruido 1/fβ. Una caracteŕıstica que hace a los fractales tan úti- les en la descripción de la naturaleza es la repetición del mismo patrón a diversas escalas. Si se hace un acercamiento, se puede ver la misma estructu- ra repetida una y otra vez, como si se tratara de una caja de muñecas rusas. Un objeto con tal caracteŕıstica es llamado autosimilar. La autosimilitud se presenta en una gran variedad de fenómenos, uno de ellos es el llamado ruido 1/f (mas generalmente el ruido 1/fβ), que tiene la forma de una ley de potencias (en un sentido estocástico2), c.f. ec. (27) y por lo tanto es inva- riante de escala. El significado de ruido en f́ısica es sinónimo de fluctuación. Existen a su vez diversas clases de ruido según su oŕıgen: Ruido Blanco (β = 0) : Es aquel en el que no existe ninguna corre- lación entre dos puntos sucesivos de la señal en el tiempo. Es el tipo de ruido que se presenta en los monitores de televisión cuando no hay conectada una antena receptora. 2Si en el ruido P (f) es la potencia promedio esperada a la frecuencia f , entonces el ruido se escala como P (f) = λβP (λf) con β = 0, 1, 2 para ruidos blanco, rosa (1/f) y café respectivamente. 2. FRACTALES 27 500 1000 1500 2000 -3 -2 -1 1 2 3 5 10 50 100 500 100010 -4 0.001 0.01 0.1 1 10 (a) 500 1000 1500 2000 -0.2 -0.1 0.1 0.2 5 10 50 100 500 1000 10-5 0.001 0.1 (b) 500 1000 1500 2000 -0.04 -0.02 0.02 0.04 5 10 50 100 500 1000 10-11 10-9 10-7 10-5 0.001 0.1 (c) Figura 2.4. Ejemplos de series de tiempo de ruido blan- co (a), ruido 1/f (b), y ruido 1/f2 (c), con sus respectivos espectros de potencias [9]. Ruido Browniano (café β = 2): Es un ruido caracteŕıstico de movi- mientos aleatorios de part́ıculas suspendidas en un ĺıquido y golpea- das por la agitación térmica de las moléculas. La part́ıcula “recuer- da” dónde ha estado en el paso inmediatamente anterior. Este tipo de ruido se puede considerar como la suma de ruido blanco. En efecto, si consideramos una serie de tiempo de ruido blanco {bi|i = 1 . . . N}, entonces la serie {Bk = ∑k i=1 bi|k = 1 . . . N}, es ruido Browniano. Ruido 1/f . Es un ruido espectralmente escalante si su densidad es- pectral para la frecuencia es de la forma 1/fβ siendo β un exponente positivo. Si β es próximo a 1 de tal manera que puede tomarse 1/f en vez de 1/fβ se dice que se trata de un ruido 1/f . 28 2. INVARIANCIA DE ESCALA 3. Fenómenos Cŕıticos y Correlaciones de Largo Alcance Uno de los grandes avances de la f́ısica de la segunda mitad del siglo XX fue el desarrollo de la moderna teoŕıa de los fenómenos cŕıticos. El paradigma central de esta teoŕıa yace en la importancia de las fluctuaciones locales del parámetro de orden. Para el punto cŕıtico de la transición de fase gas-ĺıquido, el parámetro de orden es la diferencia de densidades φ = ρl − ρg, mientras que para un ferromagneto en el punto de Curie, el parámetro de orden es la magnetización φ =M . Conforme la temperatura se acerca al punto cŕıtico, el parámetro de orden φ desaparece siguiendo una ley de potencia: φ ∼ |T − Tc|βc Cerca del punto cŕıtico Tc, la escala de longitud caracteŕıstica de las fluctuaciones ξ, también conocida como longitud de correlación, crece de acuerdo con una ley de potencia: ξ ∼ |T − Tc|−ηc La diferencia entre el parámetro de orden en las dos fases (p. ej., las den- sidades del gas y del ĺıquido) ρl − ρg desaparece conforme la temperatura se acerca al punto cŕıtico, siguiendo también una ley de potencia. La canti- dad positiva ηc se llama exponente cŕıtico. Existen otros exponentes cŕıticos αc, γc, δc, ηc, etc., que caracterizan el comportamiento cŕıtico de otras varia- bles del sistema. Las cantidades positivas βc y ηc se llaman exponentes cŕıticos. Exis- ten otros exponentes cŕıticos que caracterizan el comportamiento de otras variables del sistema cerca de la transición [6]. Quizás, la manifestación más espectacular de los fenómenos cŕıticos es la opalescencia cŕıtica. Si uno calienta un contenedor cerrado transparente llenado hasta la tercera parte de agua, la presión dentro del contenedor se incrementará de modo que el agua y el vapor permanecerán en equilibrio: la frontera agua-vapor es claramente visible y ambas fases son transparentes. Sin embargo, cuando la temperatura se aproxima a la temperatura cŕıtica Tc = 374℃ dentro de 1℃ , la frontera desaparece y la sustancia en el con- tenedor se vuelve lechosa: las fluctuaciones de la densidad dispersan la luz porque su tamaño promedio llega a ser más grande que la longitud de onda de la luz, que es de alrededor de media micra. Aśı pues la longitud de correla- ción llega a ser más de mil veces más grande que la distancia promedio entre las moléculas, que es de alrededor de 0.3 nanómetros. Ya que las fluctuacio- nes cerca del punto cŕıtico se vuelven extremadamente grandes, los detalles del potencial de interacción que actúa en escalas mucho más pequeños se vuelve irrelevante y por tanto todos los ĺıquidos cerca del punto cŕıtico tie- nen el mismo comportamiento de escalamiento, i.e. tienen exactamente los mismos exponentes cŕıticos, a decir ηc ≃ 0,64 y βc ≃ 0,33. Mas aún, la teoŕıa predice que los exponentes cŕıticos estan conectados por varias relaciones, de modo que al conocer dos cualesquiera de esos exponentes, por ejemplo ηc y βc uno puede predecir los valores de los demás. Resulta, que los exponentes 3. FENÓMENOS CRÍTICOS Y CORRELACIONES DE LARGO ALCANCE 29 cŕıticos dependen solo de la dimensionalidad del espacio y de algunas otras caracteŕısticas principales, como la dimensionalidad de las orientaciones del esṕın en el caso de materiales magnéticos. Aśı, toda la variedad de puntos cŕıticos pueden clasificarse en pocas clases de universalidad de manera que todos los sistemas que pertencen a la misma clase de universalidad tienen los mismos valores para sus exponentes cŕıticos. Por ejemplo, el Modelo de Ising en una dimensión pertence a la misma clase de universalidad que el punto cŕıtico ĺıquido-gas. Caṕıtulo 3 Conceptos del Caos Cuántico 1. Teoŕıa de Matrices Aleatorias El desconocimiento de una forma expĺıcita de la fuerza que mantiene unido el núcleo hace que los fenómenos nucleares sean dif́ıciles de estudiar en tanto que este desconocimiento hace que los Hamiltonianos contengan una gran cantidad de términos que a su vez hacen dif́ıcil, si no imposible, la solución exacta de la ecuación de Schroedinger Hψi = Eiψi. Eligiendo un conjunto completo de funciones como base, el Hamiltoniano H puede ser representado por matrices. En este contexto en la década de los 50 y 60, Wigner [10] y otros iniciaron un estudio para establecer conexiones entre la teoŕıa de matrices aleatorias, desarrollada en la década de los 30 y la f́ısica nuclear. En esencia, la hipótesis dice que los sistemas cuánticos caóticos se comportan como si sus enerǵıas caracteŕısticas fueran eigenvalores de matrices aleatorias tomadas de distribuciones estad́ısticas determinadas por las caracteŕısticas del problema. En palabras de Dyson “La teoŕıa estad́ıstica no predecirá la secuencia detallada de niveles de ningún núcleo, sino que describirá la apariencia generaly el grado de irregularidad de la estructura que se espera que ocurra en cualquier núcleo el cual es demasiado complicado para ser comprendido en detalle” [11]. La elección de las entradas para tales matrices no son del todo arbitrarias sino que, como se ha dicho deben reflejar caracteŕısticas del problema; por ejemplo el hecho de que sean simétricas tiene que ver con que el Hamiltoniano debe ser Hermitiano, etc.. El uso y aplicación de matrices aleatorias se ampĺıa a otros campos, como por ejemplo el estudio de los ceros de la función Z de Riemann y su distribución (Hipótesis de Riemann) [11]. Esto para poner de relieve la importancia de las matrices aleatorias. 2. Espaciamiento de niveles Como quiera que se tenga un problema cuántico, los f́ısicos experimenta- les tienen en esencia un conjunto de mediciones presentadas en los espectros. Dichos espectros, a niveles altos de excitación, presentan estados tan densos que es prácticamente imposible tratar de explicar los estados individuales a altas enerǵıas (E > 8MeV). Más allá de cierto punto se hace necesario explicar las propiedades colectivas, lo cual es más sencillo. 31 32 3. CONCEPTOS DEL CAOS CUÁNTICO 2.1. Distribución de Poisson. Lo primero que se estudia en este caso es el espaciamiento entre niveles a primeros vecinos. Sean para el caso E1, E2, ... los niveles sucesivos de enerǵıa, y S1, S2 . . . las distancias entre valores de Ei consecutivos, i.e. Si = Ei+1−Ei. El valor promedio de Si es el espaciamiento medio D. Se define el espaciamiento relativo como si = Si/D, y la función de densidad de probabilidad p(s) nos da la probabilidad p(s)ds de que algún espaciamiento si tenga un valor entre s y s+ ds. El caso más simple es aquél en el que los niveles de enerǵıa no están correlacionados. En este caso la probabilidad de encontrar un nivel Ei entre E y E + dE es independiente de E. Esto significa que la densidad de pro- babilidad solo es proporcional al intervalo y por lo tanto es ρ dE en donde ρ = 1/D = const. Determinar la probabilidad de encontrar un espaciamiento S es equiva- lente a preguntarnos: dado un nivel E cuál es la probabilidad de que no haya ningún nivel entre E y E+S y un nivel en el intervalo (E+S,E+S+ dS). Para encontrar esta probabilidad se divide el intervalo S en n partes iguales. La probabilidad de no encontrar un nivel en esos n subintervalos es igual al producto de las probabilidades de no tener ningún nivel en cada uno de ellos, i.e. (30) [1− ρ dE]n = [ 1− ρS n ]n , ĺım n→∞ → exp(−ρS) , Por otro lado, la probabilidad de encontrar un nivel entre E+S y E+S+ dS es ρS, aśı pues, la probabilidad de no tener niveles en (E,E+S) y tener un nivel en (E + S,E + S + dS) viene dado por el producto exp(−ρS)ρdS. En términos de s = S/D, queda (31) p(s) = exp(−s) que es conocida como la distribución de Poisson. Esta distribución resulta que no es correcta para describir el espaciamiento de niveles nucleares del mismo esṕın y paridad si se le compara con los datos experimentales [11]. 2.2. La conjetura de Wigner. Wigner propuso una fórmula distinta para la función de densidad de probabilidad para el espaciamiento entre primeros niveles vecinos con un mismo esṕın y paridad (32) pW (s) = πs 2 exp(−π 4 s2) , la cual es llamada distribución de Wigner. El razonamiento consiste en su- poner que, dado un nivel en E, la probabilidad de encontrar otro nivel en E + S es proporcional a S (para S pequeño). Se supone esto para todo S y se supone que las probabilidades en intervalos de longitud S/n son inde- pendientes p(S/D)dS = ĺım n→∞ n−1 ∏ k=0 ( 1− Sk n S n a ) aS dS , 2. ESPACIAMIENTO DE NIVELES 33 p(S/D)dS = aS exp(−aS2/2)dS , donde a se determina pidiendo que el valor promedio de s sea 1. La exactitud de la conjetura de Wigner para describir un tipo de en- samble gaussiano, el ortogonal que se describe más adelante, demuestra su validez. 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 s0.0 0.2 0.4 0.6 0.8 1.0 PHsL Ca-48 Jpi=3+. NND PHsL -Solid lines: Wigner and Poisson distributions Wigner Poisson Figura 3.1. Distribuciones de Poisson ec. (31) y Wigner ec. (32) para la distancia entre primeros vecinos compara- dos con cálculos de Shell Model con interacción realista KB3 (histograma) para el subespacio Jπ = 3+ del 48Ca (v. secc. 1.5 Caṕıtulo 4 de esta Tesis). 2.3. Ensambles gaussianos. El conocimiento de las simetŕıas de un sistema permite simplificar su estudio. Por ejemplo en la mecánica clásica éstas simetŕıas estan asociadas con constantes de movimiento. En la mecáni- ca cuántica, si el Hamiltoniano H es invariante respecto a una operación de simetŕıa existe un operador R, asociado con ésta simnetŕıa, tal que (33) [R,H] = 0 . SiH conmuta conR, entonces también conmuta con R+R+ y con i(R+R+). La representación matricial deH se simplifica si las eigenfunciones deRϕn,a = rnϕn,a, se usan como base. Se suponen rn diferentes y el ı́ndice a = 1, 2 . . . Nn corre para valores con el mismo eigenvalor rn. Usando ϕn,a como eigenfunciones, el conmutador ec. (33) se ve como 0 = 〈 ϕn,a |RH −HR|ϕmb 〉 = (rn − rm) 〈 ϕn,a |H|ϕm,b 〉 lo cual conduce a 〈 ϕn,a |H|ϕm,b 〉 = δnmH n a,b , con Hna,b = 〈 ϕn,a |H|ϕn,b 〉 con lo cual la representación matricial de H se reduce a bloques: 34 3. CONCEPTOS DEL CAOS CUÁNTICO H = H1 0 0 . . 0 H2 0 . . 0 0 H3 . . . . . . . . . . . . , con Hk = Hka,b un bloque de dimensión Nn ×Nn. Este procedimiento puede aplicarse a relativamente pocos sistemas. Ejem- plo de un sistema no integrable es el núcleo atómico. Los estados nucleares son clasificados por los números cuánticos Jπ,mj con J el momento angular total y mj el número cuántico magnético. π es la paridad: + si es par y − si es impar. Sólo existen el momento angular y la enerǵıa como constantes de movimiento. Aśı los núcleos atómicos son descritos por Hamiltonianos que se reducen a bloques donde cada bloque está asociado con un valor de Jπ. Si no hay campos magnéticos estos bloques son de dimensión 2J +1 debido a la degeneración de mj subniveles. Una simetŕıa importante es la simetŕıa de inversión temporal. El opera- dor T cambia el signo del tiempo1 : T (f(t)) = f(−t) . La acción del operador T consiste en cambiar el signo de los momentos lineal y angular y dejar inal- terada la posición: (34) TXT−1 = X , (35) TPT−1 = −P , (36) TJT−1 = −J . Consideremos el efecto de T sobre el conmutador canónico de la posición con el momento XP − PX = i~: (37) TXT−1TPT−1 − TPT−1TXT−1 = T i~T−1 De acuerdo a (34) y ( 35), (37) se transforma en −(XP−PX) = T iT−1~ lo cual se transforma en la relación original sólo si T iT−1 = −i, esto es, T debe ser un operador antilineal2. Alternativamente, podemos considerar la acción combinada CT en donde C es el operador complejo conjugado (CA = A∗) tal que Ci = −i. Hagamos actuar al operador τ = CT en ambos lados de la ecuación de Schrödinger: 1En la literatura se considera generalmente a T como un operador antilineal, un poco distinto al presentado aqúı. Un tratamiento t́ıpico es el dado por Ballentine. En el presente documento seguiremos, sin embargo, a Stöckman [12]. 2Se dice que un operador A es antilineal si satisface la relación A(c1|ψ1〉+ c2|ψ2〉) = c ∗ 1A|ψ1〉+ c ∗ 2A|ψ2〉 . 2. ESPACIAMIENTO DE NIVELES 35 (38) τHτ−1τ |ψ(t)〉 = τi~ ∂ ∂t |ψ(t)〉 , si el Hamiltoniano H es independiente del tiempo, y se reemplaza t por −t, de la ec.(38) se obtiene que T |ψ(−t)〉 satisface la ecuación de Schrödinger, aunque en este caso, a diferencia de lo que ocurre cuando el Hamiltoniano es invariante ante una transformación lineal, no hay ninguna cantidad con- servada asociada a este operador. Podemos hacer una clasificación de los sistemas f́ısicos de acuerdo con sus propiedades de transformación ante el operador τ (de inversión temporal) y ver que consecuencias tiene la inva- riancia ante inversion temporal en cuanto a las representaciones matriciales. Esto lo hacemos a continuación.2.4. Sistemas sin invariancia temporal. Para el caso de un electrón en un campo magnético, la simetŕıa de inversión temporal se rompe (porque p se sustituye por p− ecA). Como el Hamiltoniano es hermitiano, se cumple que Hnm = H ∗ mn y en general Hnm 6= Hnm. Aśı, en sistemas con simetŕıa de inversión temporal rota no es posible representar los Hamiltonianos por medio de matrices reales. La propiedad de hermiticidad de H es preservada bajo una transformación unitaria. (39) H ′ = UHU ,UU+ = 1 . 2.5. Sistemas con invariancia temporal. Para el caso en el que existe simetŕıa de invariancia temporal hay dos situaciones: a) No hay interacciones con esṕın 1/2. Ya que no hay interacción con un campo magnético externo, H conmuta con C. Aśı, podemos encon- trar funciones base ϕn que son eigenfunciones de C. Ya que C 2 = 1, los únicos eigenvalores de C son ±1: Cϕ∗n = ±ϕn Aśı, ϕn son reales o imaginarios puros. Ya que las fases de las fun- ciones base pueden ser elegidos arbitrariamente, se toma sin pérdida de generalidad ϕn como real. Los elementos de matriz también son reales: Hnm = Hmn . Con esto, los sistemas con simetŕıa de invariancia temporal y sin in- teracciones de esṕın 1/2 los hamiltonianos pueden ser representados por matrices reales simétricas. Esta propiedad es conservada bajo transformaciones ortogonales H = OH O+ , OOT = 1 , 36 3. CONCEPTOS DEL CAOS CUÁNTICO con OTnm = Omn . b) Hay interacciones de esṕın 1/2. En el caso en el que hay simetŕıa de invariancia temporal y además interacción de esṕın 1/2, H no conmuta con C, ya que incluye términos complejos. Como el ope- rador de esṕın S = ~2σ (con σ las matrices de Pauli), se usa por conveniencia los cuaterniones τ para expresar σ: τ = iσ o (40) τx = ( 0 i i 0 ) , τy = ( 0 1 −1 0 ) , τ z = ( i 0 0 −i ) , (41) τ2x = τ 2 y = τ 2 z = −1 , (42) τxτy = −τyτx, τxτ z = −τ zτx, τyτ z = −τ zτy . Debido a la ec. (41) puede verse a los cuaterniones como una generaliza- ción de los números complejos con 3 unidades imaginarias. El hamiltoniano completo de un sistema con interacción de esṕın 1/2 puede ser escrita como H = H0 +Hτ(43) = H0 +Hxτx +Hyτy con H0,Hx,Hy,Hz reales y τx, τ y son imaginarios y anticonmutan con C. El operador Cτy conmuta con todas las componentes de τ : [Cτy, τx] = [Cτy, τy] = [Cτy, τ z] = 0 y el hamiltoniano completo H también conmuta con Cτy. Aśı, si ψn es una eigenfunción de H, entonces Cτyψn es otra eigen- función de H con el mismo eigenvalor (degeneración de Kramer, observada en todos los sistemas de esṕın 1/2 con simetŕıa de invariancia temporal). Al igual que las matrices de Pauli, los cuaterniones τ junto con la matriz unidad de 2 × 2 forman una base para las matrices de 2 × 2 con entradas complejas: ( a b c d ) = 1 2 (a+ d)1− i 2 (b+ c) τx + 1 2 (b− c) τy − i 2 (a− d) τ z . Todas las matrices de (2N × 2N) pueden ser consideradas cortadas en N2 bloques de 2× 2 y cada bloque expresado en términos de cuaterniones. Si las eigenfunciones no son conocidas, se puede usar los espinores ϕn y ϕn = Cτyϕn como funciones base. Con esas funciones la matriz de H puede ser escrita en términos de matrices 2× 2 Hnm = 〈ϕn |H| ϕ̄m〉 〈ϕn |H|ϕm〉 〈ϕn |H| ϕ̄m〉 〈ϕn |H|ϕm〉 , se puede simplificar y obtener 2. ESPACIAMIENTO DE NIVELES 37 Hnm = (H0)nm + i (Hz)nm (Hy)nm + i (Hx)nm − (Hy)nm + i (Hx)nm (H0)nm − i (Hz)nm , (44) Hnm = (H0)nm 1+Hnm τ , Las transformaciones que dejan invariante H son llamadas transforma- ciones simplécticas. (45) H ′ = SHSR , con S simpléctica, SSR = 1 y SR es el dual de S definido por SR = ZSTZ−1 = −ZSZ y Z, vista en matrices de N × N es diagonal con los elementos de matriz Znm = δnmτy. En resumen se tiene: Sistemas cuyo Hamiltoniano no tiene simetŕıa de inversión temporal pueden ser representados por matrices Hermitianas invariantes ba- jo transformaciones unitarias. Este ensamble es llamado Ensamble Gaussiano Unitario, (GUE por sus siglas en inglés). Experimental- mente pueden ser creados, en principio, poniendo un núcleo o un átomo en un campo magnético externo. Sistemas cuyo hamiltoniano śı tiene simetŕıa de inversión temporal pero no interacciones de esṕın 1/2 pueden ser representados por matrices reales y son invariantes ante transformaciones ortogonales. Este ensamble es llamado Ensamble Gaussiano Ortogonal, (GOE por sus siglas en inglés). Sistemas cuyo hamiltoniano tiene simetŕıa de inversión temporal más interacciones de esṕın 1/2 pueden ser representados por ma- trices cuaterniónicas reales que son invariantes ante transformacio- nes simplécticas. Este ensamble es llamado Ensamble Gaussiano Simpléctico (GSE por sus siglas en inglés). Al momento de llenar las matrices deben cumplirse las condiciones ante- riormente deducidas. Para el GOE el número de los elementos independientes es N(N+1)/2. La distribución de probabilidad para los elementos de matriz diagonales p(H11, . . . ,HNN ) no debe depender de las funciones base. Aśı (46) p(H11, . . . ,HNN ) = p(H ′ 11, . . . ,H ′ NN ) con H ′ = OHOT , la matriz hamiltoniana transformada por el cambio de base mediante una transformación ortogonal OOT = 1. Las funciones de Hnm invariantes ante transformaciones ortogonales sólo pueden depender de las trazas de potencias de H: Tr(OAOT ) = Tr(A). Aśı (47) p(H11, . . . ,HNN ) = f [ Tr(H), T r(H2), . . . ] , 38 3. CONCEPTOS DEL CAOS CUÁNTICO además se pide: (48) p(H11,, . . . ,HNN ) = p(H11)p(H22), . . . , p(HNN ) . La forma de p(H11, . . . ,HNN ) que satisface (47) y (48) es (49) p(H11, . . . ,HNN ) = c exp [ −BTr(H)−ATr(H2) ] . Siempre es posible mover 1N Tr(H) a cero, lo cual implica que sin pérdida de generalidad se puede tomar B = 0 en (49). La constante c se determina con la ayuda de la condición de normalización (50) ∫ p(H11, . . . ,HNN )dH11 . . . dHNN = 1 . Para el caso ortogonal, los elementos no diagonales de la matriz ocurren dos veces en la exponencial, conduciendo a un factor de normalización igual a √ 2A/π mientras que los elementos diagonales dan un factor igual a √ A/π. Con esto (51) p(H11, . . . HNN ) = ( A π )N 2 ( 2A π )N(N−1)/2 exp(−A ∑ nm H2nm) . La constante A puede ser expresada como: (52) 〈 H2nn 〉 = √ A π ∫ H2nm exp(−AH2nn)dHnn = 1 2A , (53) 〈 H2nm 〉 = √ 2A π ∫ H2nm exp(−2AH2nm)dHnm = 1 4A . El conjunto de todas las matrices reales aleatorias cuyos elementos obede- cen la función de distribución de la ec. (51) definen el Ensamble Gaussiano Ortogonal (GOE por sus siglas en inglés). De forma similar se obtienen las expresiones: p(H11, . . . ,HNN ) = ( A π )N/2(2A π )N(N−1) × exp { −A ∑ n,m [ (HR) 2 nm + (HI) 2 nm ] } (54) con (HR)nm y (HI)nm las partes real e imaginaria de Hnm para el Ensamble Gaussiano Unitario (GUE), y p(H11, . . . ,HNN ) = ( A π )N/2(2A π )2N(N−1) × exp { −A ∑ n,m [ (H0) 2 nm + (Hx) 2 nm + (Hy) 2 nm + (Hz) 2 nm ] } ,(55) 2. ESPACIAMIENTO DE NIVELES 39 con (H0) 2 nm , (Hx) 2 nm, (Hy) 2 nm, (Hz) 2 nm las componentes cuaterniónicas de Hnm para el Ensamble Gaussiano Simpléctico (GSE). Estas distribuciones de los elementos de matriz de ensambles gaussianos son importantes, pero no son útiles en la comparación con el experimento. Es decir, dado que los valores disponibles son generalmente los eigenvalores es necesario expresar dichas fórmulas en términos de Ei. Las expresiones para todos los ensambles gaussianos, puede demostrarse, se engloban en la expresión siguiente: (56) p(E1, . . . , EN ) ∼ ∏ n>m (En −Em)θ exp { −A ∑ n [ (En) 2 ] } con θ = 1, 2, 4 para GOE, GUE y GSE respectivamente. El caso θ = 0 es llamado ensamble de Poisson (GDE, Gaussian Diagonal Ensamble). 2.6. Correlaciones espectrales. La correlación espectral que se es- tudia con mayor frecuencia es la distribución de probabilidad para la distan- cia entre primeros vecinos, p(s), de los niveles de enerǵıa. Se puede encontrar la distribución de primeros
Compartir