Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Física Estadística Facultad de Ciencias, UNAM - Semestre 2015-2 Dr. Rafael Ángel Barrio Paredes Profesor T.C., SNI III Instituto de Física,UNAM e-mail: barrio@�sica.unam.mx 1 Índice general 1. Revisión de termodinámica 9 1.1. Sistemas termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1.1. Energía Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2. Postulados de la termodinámica . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.1. Equilibrio termodinámico . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.2. Paredes y restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.3. El postulado de máxima entropía . . . . . . . . . . . . . . . . . . . . 12 1.2.4. Parámetros intensivos . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.5. Equilibrio térmico y temperatura . . . . . . . . . . . . . . . . . . . . 14 2. Introducción a la física estadística 15 2.1. La ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2. La relación de Gibbs-Duhem . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3. El principio de mínima energía . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4. Transformaciones de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5. Transformada inversa de Legendre . . . . . . . . . . . . . . . . . . . . . . . . 20 2.5.1. Generalización a más variables . . . . . . . . . . . . . . . . . . . . . . 20 2.6. Potenciales termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.6.1. Energía libre de Helmholtz . . . . . . . . . . . . . . . . . . . . . . . . 21 2.6.2. Entalpía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.6.3. La función de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.7. Relaciones de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.7.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3. Revisión de Mecánica Cuántica 27 3.1. Proceso de medición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.1. Ecuación de eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.2. Observables conmutables . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.2. Postulados de la mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.1. Espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2.2. Transformaciones unitarias . . . . . . . . . . . . . . . . . . . . . . . . 30 3 3.2.3. Transformaciones unitarias in�nitesimales . . . . . . . . . . . . . . . 31 3.2.4. Transformaciones unitarias �nitas . . . . . . . . . . . . . . . . . . . . 31 3.3. Esquemas de la Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.1. Esquema de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.2. Esquema de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.3. Esquema de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.4. La hipótesis cuántica: posición y momento . . . . . . . . . . . . . . . . . . . 33 3.4.1. Paréntesis de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.4.2. Álgebra de conmutadores . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.4.3. Evolución temporal y valores de expectación . . . . . . . . . . . . . . 35 3.5. Relaciones de incertidumbre entre dos operadores . . . . . . . . . . . . . . . 37 3.6. Función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.6.1. Función de Green en matemáticas . . . . . . . . . . . . . . . . . . . . 38 3.7. Formalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.7.1. Función de Green independiente del tiempo . . . . . . . . . . . . . . 39 3.7.2. De�nición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.8. Función de Green en Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . 42 3.8.1. Solución de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . 42 4. Probabilidad 45 4.1. Teorema del límite central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.1.1. El caminante al azar . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5. Teorema del límite central 55 6. Ensamble y espacio fase 59 6.1. Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2. Matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.2.1. Funciones de Green en la física estadística . . . . . . . . . . . . . . . 61 7. Ensambles 65 7.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 7.2. Colectividad microcanónica . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.2.1. Conexión con la Termodinámica . . . . . . . . . . . . . . . . . . . . . 67 7.3. Algunos comentarios acerca del postulado básico . . . . . . . . . . . . . . . . 68 7.3.1. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3.2. Ensamble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3.3. Mixing (Sinaí, Krylov) . . . . . . . . . . . . . . . . . . . . . . . . . . 69 8. Bases de la mecánica estadística 71 9. Gases cuánticos 73 9.1. Simetría de la función de onda . . . . . . . . . . . . . . . . . . . . . . . . . . 73 9.2. Estadística de Fermi-Dirac y Bose-Einstein . . . . . . . . . . . . . . . . . . . 74 9.2.1. Números de ocupación . . . . . . . . . . . . . . . . . . . . . . . . . . 74 9.2.2. La representación de ocupación . . . . . . . . . . . . . . . . . . . . . 76 9.2.3. Límites: Aproximación clásica . . . . . . . . . . . . . . . . . . . . . . 78 10.Gas de electrones libres 81 10.1. Modelo de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 10.1.1. Derivación de la densidad de estados . . . . . . . . . . . . . . . . . . 82 11.Física Estadística Cuántica 85 11.1. La matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 11.1.1. Propiedades de la matriz densidad . . . . . . . . . . . . . . . . . . . 86 11.2. Ensamble microcanónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 11.3. Ensamble canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 11.3.1. Aplicaciones: Paramagneto �a la Brillouin� . . . . . . . . . . . . . . . 89 11.4. Ensamble gran canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 12.Teoría cuántica de gases ideales 95 12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 12.2. Gas ideal de fotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 12.3. Capacidad calorí�ca de los sólidos . . . . . . . . . . . . . . . . . . . . . . . . 100 12.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 12.3.2. Teoría de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 12.3.3. Teoría de Debye . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 13.Condensación de un gas ideal de bosones 107 13.0.4. Demostración de que existe una discontinuidad: Transición de fase . . 110 14.Modelos de la conductividad eléctrica 113 14.1. Paul Karl Ludwig Drude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 14.2. Modelo Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 14.2.1. A temperatura cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 14.2.2. A temperatura diferente de cero (300K) . . . . . . . . . . . . . . . . . 117 15.Magnetismo 121 15.1. Magnetismo de los átomos y electrones libres . . . . . . . . . . . . . . . . . . 122 15.1.1. Momento angular total de los átomos . . . . . . . . . . . . . . . . . . 123 15.2. Suceptibilidades atómicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 15.2.1. Capas electrónicas llenas . . . .. . . . . . . . . . . . . . . . . . . . . 126 15.2.2. Capa electrónica semi-llena . . . . . . . . . . . . . . . . . . . . . . . 126 15.2.3. Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . . . . . . . 128 15.3. Teorema de Van Leeuwen. Diamagnetismo de Landau . . . . . . . . . . . . . 129 16.Interacciones magnéticas 133 16.1. Interacciones magnéticas dipolo-dipolo . . . . . . . . . . . . . . . . . . . . . 133 16.2. Interacción de intercambio y el modelo de Heisenberg . . . . . . . . . . . . . 134 16.2.1. Ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 134 16.2.2. Aproximación de Heitler-London . . . . . . . . . . . . . . . . . . . . 136 16.2.3. Teorema de Mermin y Wagner . . . . . . . . . . . . . . . . . . . . . . 143 17.Hamiltonianos modelo 145 17.1. Caso particular: Hamiltoniano de Heisenberg . . . . . . . . . . . . . . . . . . 145 17.1.1. Aproximación de Bethe-Peierls . . . . . . . . . . . . . . . . . . . . . 145 17.1.2. Red de Bethe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 17.1.3. El hamiltoniano más simple en la red de Bethe . . . . . . . . . . . . . 149 17.2. Solución exacta del hamiltoniano de Ising en una dimensión . . . . . . . . . 152 17.2.1. Eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 18.Transiciones de fase 155 18.1. Transiciones de fase de primer orden . . . . . . . . . . . . . . . . . . . . . . 155 18.1.1. Calor latente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 18.1.2. Fronteras en las fases . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 18.1.3. Ecuación de Clausis-Clapeyron . . . . . . . . . . . . . . . . . . . . . 158 18.1.4. Isotermas inestables y ecuación de van der Waals . . . . . . . . . . . 160 18.1.5. Sistemas multicomponentes . . . . . . . . . . . . . . . . . . . . . . . 162 18.1.6. Transiciones de fase entre las fases sólida y líquida . . . . . . . . . . . 164 18.1.7. La regla de las fases de Gibbs . . . . . . . . . . . . . . . . . . . . . . 165 18.1.8. Diagramas de fases para sistemas binarios . . . . . . . . . . . . . . . 166 18.1.9. Diagramas de fase eutécticos: Aleaciones . . . . . . . . . . . . . . . . 167 18.2. Teoría de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 18.2.1. Repaso de fenómenos críticos . . . . . . . . . . . . . . . . . . . . . . 168 18.2.2. Transiciones de fase de segundo orden . . . . . . . . . . . . . . . . . . 170 19.Sistemas fuera de equilibrio 175 19.1. No equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 19.2. Regreso al equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 19.3. Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 19.3.1. Relaciones de Onsager . . . . . . . . . . . . . . . . . . . . . . . . . . 177 20.Sistemas fuera de equilibrio II 181 20.1. Ejemplo: Resonancia magnética . . . . . . . . . . . . . . . . . . . . . . . . . 181 20.1.1. Knight shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 20.1.2. Chemical shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 21.Transporte y la ecuación de Boltzmann 187 21.1. Conservación de la masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 21.1.1. Ecuación de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . 187 21.1.2. La derivada total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 21.2. Conservación del momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 21.2.1. Ecuación de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 21.2.2. Ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 21.2.3. Ecuación de Navier-Stokes . . . . . . . . . . . . . . . . . . . . . . . . 190 21.3. Transporte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 22.Teoría del transporte de Boltzmann 195 22.1. Aproximación del tiempo de relajación . . . . . . . . . . . . . . . . . . . . . 195 22.1.1. Ejemplo 1: Conductividad . . . . . . . . . . . . . . . . . . . . . . . . 195 22.1.2. Ejemplo 2: Viscosidad . . . . . . . . . . . . . . . . . . . . . . . . . . 198 23.Movimiento Browniano y la ecuación de Langevin 201 23.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 23.2. Desplazamiento cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . 203 24.Ecuación de Fokker-Planck 205 A. Sistema en no-equilibrio 209 B. Teorema de �uctuación disipación 213 C. Relaciones de reciprocidad de Onsager 215 D. Teoría cinética 219 D.1. El teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 D.2. El operador de colisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 D.3. Estadística de partículas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 D.3.1. Momentos de la distribución de partículas . . . . . . . . . . . . . . . 221 D.3.2. Invariantes colisionales . . . . . . . . . . . . . . . . . . . . . . . . . . 222 D.3.3. Flujo de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 D.3.4. Flujo de impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 D.3.5. Flujo de energía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 D.4. Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 D.4.1. El teorema H de Boltzmann . . . . . . . . . . . . . . . . . . . . . . 225 D.4.2. La Maxwelliana local . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 Bibliografía 227 Clase 1 Revisión de termodinámica En mecánica, el estado de un sistema está completamente especi�cado a un instante de tiempo dado si la posición y la velocidad de cada partícula (elemento de masa) del que compone al sistema son conocidas. Para un sistema compuesto de un número N de partículas esto requiere el conocimiento de 6N variables. Los sistemas termodinámicos se componen de un número muy grande de partículas (átomos o moléculas), por lo que para especi�car el estado del mismo se requieren conocer 6N variables, donde N ∼ 106 (número de Avogadro). Más aún, resulta innecesaria dicha descripción, ya que las cantidades con las que se trabajan en termodinámica son propiedades promedio del sistema, es decir, un conocimiento detallado del movimiento de cada partícula es irrelevante. La termodinámica es el estudio de las consecuencias macroscópicas de promediar las coordenadas microscópicas, que debido a la tosquedad de las observaciones macroscópicas, no aparecen explícitamente en la descripción del sistema. Una de las consecuencias de estos modos atómicos �escondidos� es el de actuar como repositorios de energía. Por ejemplo, la energía que se trans�ere por medio de un �modo mecánico� se llama trabajo mecánico (-P dV ), la energía transferida a través de un �modo eléctrico� se llama trabajo eléctrico. Una transferencia de energía a través de los modos atómicos escondidos se llama calor. 1.1. Sistemas termodinámicos Consideremos un ejemplo de un sistema muy simple: homogéneo, isotrópico, sin cargas y químicamente estable sin efectos de super�cie, sobre el que no in�uyen campos eléctricos, magnéticos y la fuerza de gravedad, etc. ¾ cuáles son las coordenadas o promedios importantes? Coordenadas extensivas: { 1. V (volumen) 2. N1, N2, N3 (número de partículas) La geometría del sistema en consideración está caracterizada no solamente por su volumen, sino también por su forma. Sin embargo, la mayoría de las propiedades termodinámicas generalmente son independientes de la forma, y por lo tanto el volumen es el único dato 9 geométrico relevante. Sólo en casos en los que la razón entre la super�cie y el volumen es muy grande (por ejemplo una substancia fínamente granulada), es necesario considerar la super�cie. 1.1.1. Energía Interna La termodinámica también puede ser de�nida comoel estudio de la energía, las transfor- maciones de la energía y sus relaciones con la materia. La energía se ve como la habilidad de causar cambios. Es denotada generalmente con la letra U , y es una cantidad extensiva que es la manifestación de la ley de conservación de energía, también conocida como primera ley de la termodinámica, que simplemente establece que durante una interacción, la energía puede cambiar de una forma a otra, pero su cantidad total permanece constante. U = W +Q (1.1) 1.2. Postulados de la termodinámica 1.2.1. Equilibrio termodinámico Los estados de equilibrio tienen la propiedad de no variar siempre y cuando las condiciones externas permanezcan sin cambio. Así, por ejemplo, un gas encerrado en un contenedor de volumen constante está en equilibrio cuando su presión es constante y su temperatura es igual a la del medio que lo rodea. El problema fundamental de la termodinámica es la determinación de los estados de equi- librio alcanzado después de un proceso efectuado sobre un sistema cerrado. Por conveniencia, Callen [1] formula los postulados sólo para sistemas simples, de�nidos como aquéllos que son macroscópicamente homgéneos, isotrópicos y sin carga, que son lo su�cientemente grandes de tal forma que los efectos de super�cie pueden ser despreciados y que no actúan sobre ellos campos eléctricos, magnéticos o gravitacionales. Postulado I: Existen estados de equilibrio macroscópicos, caracterizados com- pletamente por la energía interna U , el volumen V y el número de moles Ni de las componentes químicas. Como suponemos que estos estados están caracterizados completamente por los parámetros extensivos, la energía interna U , el volumen V y el número de moles Nr de las componentes químicas. La composición química se re�ere al número de cada tipo de partícula considerada impor- tante para el sistema. Un sistema compuesto se puede formar a partir de múltiples subsistemas α, cada uno de los cuales tienen estados de equilibrio caracterizados por sus propios valores de U (α), V (α) y N (α)1 , · · ·N (α) r . El sistema compuesto es cerrado si su energía total U = U (α), su volumen V = V (α) y su número total de moles Nr = N (α) r están restringidos. Las restricciones internas pueden prevenir el �ujo de energía, volumen o materia entre los subsistemas. 1.2.2. Paredes y restricciones La descripción de un sistema termodinámico requiere de la especi�cación de las �paredes� que lo separan de los alrededores y que de�nen las condiciones a la frontera. Convencio- nalmente se re�eren a las paredes que son impermeables al �ujo de calor como adiabáticas, mientras que una pared que permite el �ujo de calor se llama diatérmica. Si la pared no permite el �ujo del calor ni trabajo se dice que es restrictiva con respecto a la energía. Un sistema encerrado por una pared restrictiva con respecto a la energía, volumen y los números de moles se conoce como cerrada. La existencia de estas paredes demuestra que la energía es macroscópicamente controlable. En termodinámica estamos interesados en la medición de las diferencias de energía, las cuales son las que tienen signi�cado físico. Es posible medir la diferencia de energía entre dos estados si es posible llegar de uno a otro por medio de algún proceso mecánico, si el sistema está encerrado por una pared impermeable adiabática. Las paredes adiabáticas, tienen la propiedad de que el trabajo hecho al llevar un sistema encerrado adiabáticamente entre dos estados, digamos a y b, está determinado totalmente por las propiedades de los estados inicial y �nal, independientemente de todas las condiciones externas. El trabajo hecho es la diferencia entre la energía interna de los dos estados, dW = Ua − Ub. El experimento de Joule demostró que para un sistema encerrado en paredes adia- báticas impermeables, cualesquiera dos estados de equilibrio termodinámico con el mismo conjunto de números de moles N1, N2, · · · , Nr pueden unirse por medio de un proceso me- cánico. Joule descubrió que si dos estados A y B están especi�cados, puede no ser posible encontrar un proceso mecánico (consistente con una pared adiabática impermeable) que lleve al sistema de A a B y viceversa, pero que siempre es posible encontrar el proceso que lleve al sistema de A → B o bien, de B → A. Esto tiene un signi�cado profundo, ya que esta asimetría entre dos estados dados esta asociada con el concepto de irreversibilidad. Calor El �ujo de calor hacia un sistema durante cualquier proceso (a número de moles cons- tante) es simplemente la diferencia en la energía interna entre los estados iniciales y �nales, disminuida por el trabajo hecho durante el proceso. Para el trabajo mecánico, cuya expresión cuantitativa es δWM = −P dV , el trabajo cuasiestático se de�ne por la ecuación, δQ = dU − δWM Primera ley (1.2) Un proceso cuasiestático entre dos estados de equilibrio A y B es aquél en el que se cambian las condiciones del sistema lentamente que éste tiene tiempo de ajustarse a si mismo gra- dualmente a las condiciones nuevas (estado de equilibrio). Por ejemplo, se puede efectuar un expansión reversible de un gas encerrándolo en un contenedor con un pistón móvil y movién- do el pistón lentamente como se muestra en la �gura 1.1. Si movemos el pistón rápidamente, se generarán corrientes en la masa gaseosa en expansión y los estados intermedios no serán de equilibrio. Nótese que en la ecuación 1.2 se ha usado una δ para indicar una diferencial imperfecta o inexacta. Figura 1.1: Expansión de un gas usando un pistón. 1.2.3. El postulado de máxima entropía Postulado II: Existe una función (llamada entropía) de los parámetros exten- sivos de cualquier sistema [cerrado] compuesto, de�nida para todos los estados de equilibrio y que tiene la siguiente propiedad: Los valores asumidos por los parámetros extensivos en ausencia de una restricción externa son aquéllos que maximizan la entropía sobre la variedad de los estados de equilibrio restringidos. S = S(U, V,Ni) relación fundamental. (1.3) Postulado III: La entropía de un sistema compuesto es aditiva sobre los sub- sistemas constituyentes. La entropía es continua y diferenciable y es una función monótona creciente con la energía. Así la entropía total de un sistema compuesto es, S = ∑ α Sα, (1.4) es decir, la entropía es extensiva. Es lineal, S(λU, λV, λNi) = λS(U, V,Ni), ( ∂S ∂U ) V,Ni > 0. (1.5) La condición de diferenciabilidad requiere la existencia de la primer derivada parcial (∂S/∂X) con respecto a cada uno de los parámetros extensivos X de los que la entropía depende. Se mostrará más tarde que la estabilidad termodinámica también requiere que (∂2S/∂X2 ≤ 0) para cada X. La segunda frase en el postulado implica que U es una función bien comportada de S, V y N1, · · · , Nr. Este postulado sugiere que la función entropía puede ser invertida con la energía de tal forma que la función S = S(U, V,Ni) puede resolverse unívocamente para U = U(S, V,Ni). Estas ecuaciones son formas alternativas de la relación fundamental. Postulado IV: La entropía de cualquier sistema [es no negativa] y se hace cero en el estado para el que (∂U/∂S)V,N1,··· ,Nr = 0 (esto es, a temperatura cero). Esto es una reexpresión de la tercera ley o postulado de Nernst. 1.2.4. Parámetros intensivos Consideremos la ecuación U = U(S, V,Ni) y calculemos la primera diferencial, dU = ( ∂U ∂S ) V,N1,··· dS + ( ∂U ∂V ) S,N1,··· dV + ∑ r ( ∂U ∂Nr ) V,Nk dNr. (1.6) Las derivadas parciales son los parámetros intensivos y la siguiente notación es usada con- vencionalmente, ( ∂U ∂S ) V,N1,··· = T temperatura − ( ∂U ∂V ) S,N1,··· = P presión ( ∂U ∂Nr ) V,Nk = µr potencial químico Reescribiendo, dU = TdS − PdV + ∑ r µrdNr. (1.7) En el caso de número de moles constantes, encontramos que, δQ = TdS. (1.8) Es decir, un �ujo cuasi-estático de calor hacia el sistema resulta en un incremento de la entropía. La temperatura, presión y potenciales químicos son funciones implícitas de los parámetros extensivos (ya que son derivadasde una función de los parámetros extensivos). Con esto obtenemos, T = T (S, V,Nr), P = P (S, V,Nr), etc. (1.9) Tales expresiones que relacionan los parámetros intensivos con los parámetros extensivos independientes se llaman ecuaciones de estado. Todo el análisis previo, al efectuarse con S = S(U, V,Nr) resulta en un conjunto diferente de parámetros intensivos (llamados los parámetros intensivos entrópicos): Fk ≡ ∂S ∂Xk , F0 = 1 T Fk = −Pk T . (1.10) 1.2.5. Equilibrio térmico y temperatura Considere un sistema cerrado compuesto que consiste de dos sistemas simples separados por una pared que es rígida e impermeable a la materia pero que permite el �ujo de calor. Los volúmenes de los sistemas están �jos pero las energías U1 y U2 son libres de variar, pero sujetas a la restricción, U1 + U2 = constante. (1.11) En el equilibrio, dS = 0 y dS = ( dS1 dU1 ) V,N dU1 + ( dS2 dU2 ) V,N dU2, (1.12) o bien, dS = 1 T 1 dU1 + 1 T 2 dU2. (1.13) Pero dU1 = −dU2, es decir, dS = ( 1 T 1 − 1 T 2 ) dU1 = 0, (1.14) las temperaturas son iguales T 1 = T 2. El análisis puede extenderse para mostrar que el calor �uye de regiones de alta temperatura a regiones de baja temperatura. Clase 2 Introducción a la física estadística La física estadística surge de la necesidad de reconocer que los sistemas físicos macro- cópicos en general están constituidos por partículas pequeñísimas (cuánticas) en números formidablemente grandes. Esta tarea, en apariencia simple, no es fácil y ni siquiera está com- pleta hoy en día. En efecto, no sabemos aún cómo es posible que las ecuaciones de movimiento (todas: clásicas y cuánticas) sean simétricas ante un cambio de signo en el tiempo (reversibles o simetría de Kramer) y el mundo microscópico sea irreversible. Muchas grandes mentes han aventurado respuestas, como Einstein, Gell-Mann, Feynman, etc, quienes han sugerido que esto tiene que ver con: propiedades de los grandes números, pérdida de información en colisiones instantáneas, improbabilidades de todo tipo. Sin embar- go, la pregunta sigue en el aire. Afortudamente en el mundo microscópico, se necesita muy poco para de�nir un sistema, no necesitamos las 6N ∼ 1024 coordenadas para decir cómo éste comporta. Para conocer un sistema físico hay que medirlo, pero entonces las escalas de medida cuentan. Las medidas macroscópicas son insensibles al movimiento y al cambio de las coordenadas microscópicas tanto en el espacio como en el tiempo, (que son del orden de T ∼ 10−15 seg, L ∼ 1 = 10−10m). CLAVE medida proceso estocastico pocas coordenadas CLAVE medida proceso estocastico pocas coordenadas 2.1. La ecuación de Euler Podemos tomar ventaja de que la ecuación fundamental es de primer orden y homogénea, 15 U(λS, λX1, · · · , λXk) = λU(S,X1, · · · , Xk) (2.1) y diferenciable con respecto a λ, ∂U ∂(λS) ∂(λS) ∂λ + r∑ j=1 ∂U ∂(λXj) ∂(λXj) ∂λ = U(S,Xi, · · · , Xr) (2.2) que es válida para cualquier valor de λ en particular λ = 1, entonces, ∂U ∂S S + r∑ j=1 ∂U ∂Xj = U ∂U ∂Xj = Pj (2.3) es decir, U = TS + r∑ j=1 PjXj ecuación de Euler (2.4) en un sistema simple, U = TS − PV + r∑ i=1 µiNi. (2.5) 2.2. La relación de Gibbs-Duhem Nuevamente aprovechamos las propiedades de las funciones de primer orden, si λ = 1 Nr , U ( S Nr , V Nr , N1 Nr , · · · , Nr Nr ) = U Nr (S, V,N1, · · · , Nr︸ ︷︷ ︸ Nr + 2 variables ) (2.6) U(S, V,N1, · · · , Nr) = NrU SNr , VNr , N1Nr , · · · , 1︸ ︷︷ ︸ Nr + 1 variables (2.7) U(S, V,N) = Nu(s, v, 1) = Nu(s, v), con s = S N , v = V N (2.8) esto quiere decir que en realidad hay r + 2 parámetros extesivos y hay r + 2 ecuaciones de estado, pero como λ = 1 Nr , µr = µr(s, v, n1, · · · , nr, 1) (2.9) las r+ 2 ecuaciones de estado son función de r+ 1 variables, por lo tanto, existe una relación entre los parámetros intensivos. De la relación de Euler, diferenciando, dU = TdS + SdT − PdV − V dP + r∑ j=1 (µjdNj = Njdµj), (2.10) pero sabemos que, dU = TdS = PdV + r∑ j=1 µrdNr (2.11) de aquí, 0 = SdT − V dP + r∑ j=1 Njdµj, (2.12) la cual es la relación de Gibbs-Duhem. Si sólo hay una sustancia química, dµ = −sdT + vdP, (2.13) un sistema de r componentes tiene r + 1 grados de libertad termodinámicos. La ecuación de Gibbs-Duhem, muestra que tres variables intensivas no son independientes, si conocemos dos de ellas, el valor de la tercer puede determinarse usando la ecuación 2.12. 2.3. El principio de mínima energía El principio de máxima entropía caracteriza el estado de equilibrio de cualquier parámetro (no restringido extensivo) como el que tiene la máxima entropía para una energía total dada. De forma similar, el principio de mínima energía caracteriza el estado de equilibrio como el que tiene la mínima energía para una entropía total dada. Recordemos que la segunda ley de la termodinámica indica que existe una función S de la energía del sistema S(U, V,N) que es una función creciente monótona de la energía interna U . Esta función alcanza un extremo (máximo) en el equilibrio. Si usamos dS = 1 T dU + P T dV − µ N dN (2.14) como la relacion fundamental, vemos que dS = 0 para la energía interna constante una vez que el sistema alcanza el equilibrio. Consideremos la �gura 2.3 del lado izquierdo, para U constante, el equilibrio se alcanza cuando S es máxima con respecto a la variable Xj. Si comenzamos con un sistema para el cual la variable Xj no tiene el valor que corresponde al equilibrio, el sistema restrigido a estar a un valor constante de U evolucionará y S aumentará y Xj variará durante este proceso. El proceso se detiene cuando S alcanza un máximo:( dS dXj ) U = 0, Equilibrio. (2.15) Cerca del punto de equilibrio, tendremos, ( ∂2S ∂X2 ) U < 0. (2.16) Figura 2.1: Entropía y energía. Otra manera de visualizar esto es tomando la relación fundamental dU = TdS − PdV + µdN . En este caso restringimos al sistema a tener una entropía constante. Esto se represenda en la �gura 2.3 del lado derecho. A entropía constante, el equilibrio se alcanza cuando U tiene un mínimo con respecto a otras variables (no restringidas) Xj. Entonces el sistema evolucionará hacia la minimización de la energía, ajustando Xj. 2.4. Transformaciones de Legendre El arte de los cálculos termodinámicos se basa principalmente en la elección de la formu- lación teórica particular que haga el problema simple. Ya que los parámetros intensivos se miden y controlan más fácilmente que los paráme- tros extensivos, se puede pensar en los pámetros intensivos como variables independientes y los parámetros extensivos como las cantidades derivadas. Una desventaja de usar U(S, V,N) como un potencial termodinámico es que la variable natural S es muy difícil de controlar en el laboratorio. Para propósitos prácticos es más fácil trabajar con otros potenciales termo- dinámicos que pueden de�nirse haciendo uso de la transformada de Legendre. Esto lleva a reformular a la termodinámica en otras representaciones, además de la entropía y la energía. Considere una función, Y = Y (X0, X1, · · · , Xt) = Y (X), que representa una curva en el espacio X, Y , donde P ≡ ∂Y ∂X (2.17) es la pendiente de la curva, véase la �gura 2.6. La idea es escribir a P como variable, i.e. Y = Y (P ), sin embargo, es claro que la descripción de Y a través de la pendiente ∂Y ∂X no permite reconstruir la ecuación fundamental, ya que Y = Y (P ) es una ecuación diferencial de primer orden y la integración resulta en Y = Y (X) conocida hasta una constante de integración, por lo tanto, se pierde información. La solución del problema está en que una curva dada puede ser representada por: 1. Una familia de líneas tangentes, descrita por dos números Y = PX + Ψ. 2. El locus de puntos que satisfagan Y = Y (X), de igual manera descrito por dos números. Tomando a la familia de líneas tangentes, Y = Y (P ), seleccionamos las variables (P,Ψ), tal que, Ψ = Ψ(P )→ Y = Y (X), donde Ψ es la transformada de Legendre de Y . Debemos entonces conocer las intersecciones para todas lastangentes, hágase referencia a la �gura 2.4, donde la pendiente, P = Y −Ψ X − 0 → Ψ = Y − PX, (2.18) como Y = Y (x) y P = P (X), Ψ = Y (X)− P (X)X (2.19) La ecuación 2.19 es la de�nición de transformada de Legendre de Y (X). Nótese que hemos eliminado X y Y , lo cual es posible si P depende de X, es decir, d2Y dX2 6= 0 (estabilidad). (2.20) 2.5. Transformada inversa de Legendre Diferenciando la ecuación 2.19, obtenemos la expresión, dΨ = −PdX −XdP + dY = −XdP, (2.21) es decir, −X = dΨ dP (2.22) ahora se eliminan Ψ y P para dar Y (X) = Y . Y = Y (X) Ψ = Ψ(P ) P = dY dX −X = dΨ dP Eliminar X y Y Eliminar P y Ψ Ψ = Ψ(P ) Y = Y (X) 2.5.1. Generalización a más variables Partiendo de Y = Y (X0, X1, X2, · · ·Xj), PJ = ∂Y ∂Xj (2.23) Ψ = Y − r∑ j=1 PjXj (2.24) dΨ = − r∑ j=1 XjdPj → −Xj = ∂Ψ dPj (2.25) Ejemplo: La lagrangiana L = L(q1, q2, · · · , qn, v1, v2, · · · , vn) (2.26) el momento se puede de�nir como Pk = ∂L∂vk , si se desea trabajar con los momentos en vez de las velocidades se toma la transformación parcial con respecto a las velocidades, entonces se de�ne la transformada (primera cantidad de Jacobi) como, −H = L− n∑ k=1 Pkvk (2.27) y entonces H = H(P1, P2, ·, Pn, q1, q2, · · · , qn) y ∂H∂Pk = vk. 2.6. Potenciales termodinámicos Los potenciales termodinámicos son funciones de estado que junto con las correspondien- tes ecuaciones de estado, describen el comportamiento en el equilibrio de un sistema como función de las llamadas �variables naturales�, las cuales son el conjunto de variables apropia- das que permiten calcular otras funciones de estado por medio de la diferenciación parcial de los potenciales termodinámicos. Un potencial termodinámico para un sistema con un número de partículas variable debe depender de µ,N así como de una variable térmica [S(extensiva) o T(intensiva)] y una variable mecánica [V(extensiva) o P(intensiva)]. Existen cuatro posibles combinaciones de estas variables, 2.6.1. Energía libre de Helmholtz Partiendo de U = U(S, V,N), si reemplazamos la variable independiente S por T . De�- nimos la energía libre F = U [T ] = F (T, V,N): F = U − S ( ∂U ∂S ) V,N = U − TSF = F (T, V,N) Energía libre En la expresión, dF = dU − d(TS) = dU − SdT − TdS sustituimos dU y obtenemos, dF = −SdT − PdV + r∑ j=1 µjdNj. (2.28) Las variables naturales de la energía libre son T, V,N . Las variables dependientes se obtienen a partir de las primeras derivadas, −S = ( ∂F ∂T ) V,N P = − ( ∂F ∂V ) T las cuales son las ecuaciones de estado. 2.6.2. Entalpía La entalpía H = H(S, P,N), se obtiene cuando sustituimos la variable V por P en U(S, V,N): H = U + PV La diferencial total de H, H = U − V ( ∂U ∂V ) S,N︸ ︷︷ ︸ -P (2.29) dH = dU + d(PV ) = dU + V dP + PdV = TdS − PdV + r∑ j1 µrdNr + V dP + PdV dH = TdS + V dP + r∑ j1 µrdNr. (2.30) Las variables naturales de la entalpía son S, P,N . A partir de las primeras derivadas obtenemos, T = ( ∂H ∂S ) P,N V = ( ∂H ∂P ) S,N (2.31) 2.6.3. La función de Gibbs Obtenemos esta función si reemplazamos S por T y V por P , G = G(T, P,N) (2.32) G = U − S ( ∂U ∂S ) V,N − V ( ∂U ∂V ) S,N G = U − TS + PV. (2.33) T = ∂U ∂S −S = ∂G ∂T G = U − TS + PV −P = ∂U ∂V V = ∂G ∂P U = G+ TS − PV La diferencial total, dG = SdT + V dP + ∑ k µkNk. (2.34) A partir de las primeras derivadas de G, obtenemos, S = − ( ∂G ∂T ) P,N V = ( ∂G ∂P ) T,N (2.35) La funciones de Massieu son las posibles transformadas de Legendre de la entropía así como los potenciales termodinámicos son de la energía. 2.7. Relaciones de Maxwell Estas relaciones conectan dos derivadas de variables termodinámicas y emergen debido a la equivalencia de las segundas derivadas del potencial bajo un cambio de orden de operación, i.e., ∂2F ∂X∂Y = ∂2F ∂Y ∂X , donde F es un potencial termodinámico y X y Y son dos de sus variables naturales indepen- dientes. Si consideramos las segundas derivadas, ∂2U ∂S∂V = ∂2U ∂V ∂S ∂ ∂S ( ∂U ∂V ) S,N = − ( ∂P ∂S ) V,N = ( ∂T ∂V ) S,N = ∂ ∂V ( ∂U ∂S ) V,N donde el texto realzado en rojo corresponde a la relación de Maxwell. Para un sistema simple, hay tres relaciones de Maxwell con respecto a U . Existen 6 transformadas parciales de Legendre→ 21 relaciones de Maxwell. Se puede identi�car dichas relaciones usando el siguiente cuadro termodinámico: dU = TdS − PdV dF = −SdT − PdV dH = TdS + V dP dG = V dP − SdT etc. P G T H F S U V 2.7.1. Aplicaciones Las relaciones de Maxwell son importantes porque muestran que las derivadas de los pará- metros termodinámicos no son completamente independientes. Además proveen un método para expresar derivadas que involucran cantidades difíciles de medir con aquéllas que son fácilmente medibles en un experimento. Por ejemplo, ¾cómo mediríamos la entropía o el potencial químico en el laboratorio? Es- tas cantidades no son accesibles directamente de forma experimental. Lo que podemos medir típicamente son cantidades mecánicas como la presión, volumen, densidad y propiedades tér- micas como la temperatura y el �ujo de calor (vía cambios de temperatura). Sin embargo, existen algunas propiedades materiales fácilmente medibles que dependen de las derivadas de las variables termodinámicas. Debido a que estas cantidades miden el cambio en un pará- metro del sistema en respuesta a una perturbación in�nitesimal, se conocen como funciones respuesta: 1. Calor especí�co a volumen constante: CV ≡ ( ∂U ∂T ) V,N = T ( ∂S ∂T ) V,N (2.36) 2. Calor especí�co a presión constante: CP ≡ ( ∂H ∂T ) P,N = T ( ∂S ∂T ) P,N (2.37) 3. Expansión térmica, αP = 1 V ( ∂V ∂T ) P,N (2.38) 4. Compresibilidad isotérmica, κT = − 1 V ( ∂V ∂P ) T,N (2.39) Estas funciones respuesta se de�nen de tal forma que sean positivas para los sistemas �normales�, tales como los gases ideales y los líquidos simples. Sin embargo, en ocasiones hay excepciones como el caso de la expansión térmica del agua debajo de los 4oC, la cual es negativa. Por lo tanto, las relaciones de Maxwell nos permiten expresar cantidades inaccesibles expe- rimentalmente en terminos de cantidades medibles, como por ejemplo, ( ∂S ∂P ) T,N = − ( ∂V ∂T ) P,N . Clase 3 Revisión de Mecánica Cuántica 3.1. Proceso de medición La teoría cuántica, basada en la ecuación de Schrödinger no puede describir el proceso una medición. La evolución de la función de onda descrita por la ecuación de Schrödinger tiene dos características fundamentales: es un proceso �reversibe�, de tal forma que siempre se puede deshacer el proceso y regresar al estado inicial desde el estado �nal, y tiene una evolución �determinista� en el que el estado �nal esta determinado únicamente por los estados iniciales si el Hamiltoniano que describe al sistema es conocido. Por otro lado, el proceso de medición es �irreversibe� y �no determinista�. Una vez que se efectúa la medición y se extrae la información, es imposible regresar al estado inicial. Antes de que la medición se complete, no se puede predecir cuál será el resultado de la medición y cual será el estado posterior a la medición del sistema. 3.1.1. Ecuación de eigenvalores Sea Ô un operador que opera sobre funciones de la variable x. Denotamos las eigen- funciones del operador Ô con sj(x) o colectivamente con {sj(x)}, con j = 1, 2, 3, · · · y a los eigenvalores con λj, o de manera colectiva como {λj}. Si conocemos Ô, por de�nición obtenemos las eigenfunciones y eigenvalores (sj(x), λj) de Ô resolviendo la ecuación, Ôs(x) = λs(x). (3.1) En notación de Dirac, un vector de estado |ψ〉 es un eigenvector (eigenket o eigenestado) de un operador Ô si la aplicación de Ô a |ψ〉 da, Ô|ψ〉 = λ|ψ〉, (3.2) donde λ es un número complejo. La ecuación 3.2 es conocida como la ecuación de eigenvalores o problema de eigenvalores del operador Ô. Su solución da los eigenvalores y eigenvectores de Ô. Para sistemas físicos, λ es real y el operador Ô tiene la propiedad de ser hermitiano, (ÔT) = Ô = Ô†. (3.3) 27 El problema centralen mecánica cuántica es la determinación de la función de onda Ψ(r, t) que en general es una función de la posición y del tiempo, para cualquier sistema de interés. En algunos problemas, podemos enfocarnos en la solución del problema en términos de la parte independiente del tiempo de Ψ(r, t), que se denota con ψ(r). El estado particular descrito por ψ(r) se conoce como estado estacionario. Para un sistema físico, las condiciones a la frontera del mismo son su�cientes para de- terminar la función de onda y sus eigenvalores asociados. Para hamiltoniano de la forma H = T + V , la ecuación de Schrödinger, resulta en, H|Ψn〉 = En|Ψn〉, o bien (H − E)|Ψn〉 = 0. (3.4) La solución de este problema resulta en, |H − E|G = 1. (3.5) donde G es la función de Green del problema y H es un operador hermitiano, (Ψ∗H∗)T = EnΨ ∗T (3.6) 〈Ψn′ |HT = 〈Ψn′ |H = 〈φn|En′ (3.7) 〈Ψn′|H|Ψn〉 = En′〈Ψn′ |Ψn〉, (3.8) si el vector de estado está normalizado 〈Ψn′|Ψn〉 = δnn′ y cumple con la condición de cerradura∑ n |Ψn〉〈Ψn| = 1, obtenemos, En = 〈Ψn|H|Ψn〉, (3.9) el valor esperado. Las observables macrocópicas y sus eigenestados asociados forman un conjunto completo. 3.1.2. Observables conmutables Supongamos que Â|an〉 = an|an〉 y B̂|bn〉 = bn|bn〉, entonces, B̂(Â|an〉) = anB̂|an〉 = anbn|an〉, (3.10a) Â(B̂|bn〉) = bnÂ|an〉 = anbn|an〉, (3.10b) a partir de las dos ecuaciones anteriores obtenemos, (B̂Â− ÂB̂)|an〉 = 0, (3.11a) [A,B] = 0. (3.11b) Como caso particular, si B̂ = Ĥ y encontramos los operadores  que cumplen con la expresión (3.11b), entonces tenemos la máxima información del sistema o las constantes de movimiento. 3.2. Postulados de la mecánica cuántica Estos postulados nos permiten entender las siguientes preguntas: Cómo se describe matemáticamente un estado cuántico a un tiempo dado t. Cómo calcular las cantidades físicas a partir de estos estados cuánticos. Conociendo el estado del sistema a un tiempo t, cómo encontrar su estado a cualquier tiempo posterior t′, i.e., cómo describir la evolución temporal del sistema. Postulado 1: El estado de un sistema El estado de cualquier sistema físico se especifíca a cada t por un vector de estado |ψ(t)〉 en un espacio de Hilbert (véase más abajo). |ψ(t)〉 contiene toda la información sobre el sistema. Cualquier superposición de vectores de estado también es un vector de estado. Postulado 2: Observables y operadores A cada cantidad física medible O, conocida como observable o variable dinámica, le co- rresponde un operador lineal hermitiano Ô cuyos eigenvectores forman una base completa. Postulado 3: Mediciones y eigenvalores de los operadores La medición de la observable O es la acción de Ô sobre |ψ(t)〉. El resultado de la medición es un eigenvalor λn de Ô. El estado del sistema inmediatamente después de la medición es la proyección de |ψ(t)〉 sobre el eigenvector |ψn〉 asociado a λn: |ψ(t)〉después = |ψn〉〈ψn|ψ(t)〉. (3.12) Postulado 4: Resultados probabilistas de las mediciones • Espectro discreto: Cuando se mide la observable O de un sistema en el estado |ψ〉, la probabilidad de obtener un eigenvalor no degenerado λn de Ô es, Pn(λn) = |〈ψn|ψ〉|2 〈ψ|ψ〉 . (3.13) Postulado 5: La evolución temporal de un sistema La evolución temporal de un vector de estado |ψ(t)〉 de un sistema esta gobernado por la ecuación de Schrödinger dependiente del tiempo, i~ ∂|ψ(t)〉 ∂t = Ĥ|ψ(t)〉, (3.14) donde Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema. 3.2.1. Espacios de Hilbert Un espacio de Hilbert tiene la propiedad de ser un espacio completo lineal con un producto escalar de�nido. Este espacio es el de funciones cuadráticamente integrables. Propiedades del producto escalar (ψ, φ) = (φ, ψ)∗ El producto escalar es lineal en φ y antilineal en Ψ, (ψ, λ1φ+ λ2φ2) = λ1(ψ, φ1) + λ2(ψ, φ2) (λ1ψ + λ2ψ2, φ) = λ ∗ 1(ψ1, φ) + λ ∗ 2(ψ2, φ) La norma (Ψ,Ψ) ≥ 0. A partir de estas propiedades se in�ere la desigualdad de Schwartz, |(ψ, φ)|2 ≤ (ψ, ψ)(φ, φ). (3.15) 3.2.2. Transformaciones unitarias Cuando un operador unitario Û es aplicado a los vectores de estado y los operadores, éstos se transforman de la siguiente manera, |ψ′〉 = Û |ψ〉, 〈ψ′| = 〈ψ|Û †, Ô′ = ÛÔÛ †, (3.16) |ψ〉 = Û †|ψ′〉, 〈ψ| = 〈ψ′|Û , Ô = Û †Ô′Û . (3.17) Propiedades Si un operador Ô es hermitiano, su operador transformado, también es hermitiano, Ô′ † = (ÛÔÛ †)† = ÛÔ†Û † ≡ ÛÔÛ † = Ô′ (3.18) Los eigenvalores de Ô y Ô′ son los mismos. Un transformación unitaria no cambia la física del sistema estudiado, únicamente trans- forma de una descripción a otra, físicamente equivalente. Y veremos su utilidad más adelante al hablar sobre los diferentes marcos de descripción de la Mecánica Cuántica. 3.2.3. Transformaciones unitarias in�nitesimales Consideremos un operador unitario Û que depende de un parámetro ini�tesimalmente pequeño � que varía ligeramente del operador unitario Î, Û�(Ĝ) = Î + i�Ĝ, (3.19) donde Ĝ se conoce como el generador de la transformación in�nitesimal. Podemos ver que Û� es un transformación unitaria sólo si � es real y Ĝ es hermitiano, Û�Û † � = (Î + i�Ĝ)(Î − i�Ĝ†) ≈ Î + i�(Ĝ− Ĝ†) (3.20) donde hemos despreciado términos cuadráticos en �. La transformación de los vectores de estado |s〉 es, |ψ′〉 = (Î + i�Ĝ)|ψ〉 = |ψ〉+ δ|ψ〉, (3.21) donde δ|ψ〉 = i�Ĝ. La transformación de un operador Ô está dada por, Ô′ = (Î + i�Ĝ)(Î − i�Ĝ) ≈ Ô + i�[Ĝ, Ô]. (3.22) Si Ĝ conmuta con Ô, la transformación unitaria no cambiará Ô, es decir, Ô′ = Ô: [Ĝ, Ô] = 0,→ Ô′ = (Î + i�Ĝ)Ô(Î − i�Ĝ) = Ô. (3.23) 3.2.4. Transformaciones unitarias �nitas Podemos construir una transformación unitaria �nita a partir de la ecuación 3.19 efec- tuando una sucesión de transformaciones in�nitesimales en pasos de �; la aplicación de un serie de transformaciones unitarias sucesivas es equivalente a la aplicación de una transforma- ción unitaria única. Sea � = α/N , donde N es un entero y α es un parámetro �nito, podemos aplicar la misma transformación N veces y en el límite N → +∞ obtenemos, Ûα(Ĝ) = ĺım N→∞ N∏ k=1 ( 1 + i α N Ĝ ) = ĺım N→∞ ( 1 + i α N Ĝ )N = eiαĜ, (3.24) donde Ĝ es el generador de la transformación �nita y α es un parámetro. El operador Û es unitario, sólo cuando el parámetro α es real y Ĝ es es hermitiano, i. e., ( eiαĜ )† = e−iαĜ = ( eiαĜ )−1 . (3.25) 3.3. Esquemas de la Mecánica Cuántica Existen muchas representaciones de las funciones de onda y operadores en mecánica cuán- tica. La conexión entre estas representaciones se hace en términos de las transformaciones unitarias que repasamos en la sección anterior. Cada clase de representación di�ere de las otras en términos de cómo se trata la evolución temporal del sistema. Los esquemas frecuen- temente usandos en mecánica cuantica son los siguientes: 3.3.1. Esquema de Schrödinger Es útil cuando se describen fenónomenos con Hamiltonianos independientes del tiempo. En este marco los vectores de estado dependen explícitamente del tiempo, pero los operadores no, i~ d dt |ψ(t)〉 = Ĥ|ψ(t)〉 (3.26) donde |ψ(t)〉 denota el estado del sistema en este esquema. La evolución temporal de un estado |ψ(t)〉 puede expresarse en términos del propagador de evolución temporal, (̂U)(t, t0) de la siguiente manera, |ψ(t)〉 = (̂U)(t, t0)|ψ(t0)〉, (3.27) con (̂U)(t, t0) = ei(t−t0)Ĥ/~. 3.3.2. Esquema de Heisenberg Su utilidad surge para sistemas cuyos Hamiltonianos tienen una dependencia temporal explícita en el tiempo. La dependencia temporal de los vectores de estado está completamente congelada. Este esquema se obtiene a partir del esquema de Schrödinger aplicando Û sobre |ψ(t)〉, |ψ(t)〉H = Û †(t)|ψ(t)〉 = |ψ(0)〉. (3.28) Podemos reescribir Û † = Û †(t, t0 = 0) = e itĤ ~ y |ψ(t)〉 = Û(t)|ψ(0)〉, Û(t) = e itĤ~ . Entonces podemos reescribir la ecuación 3.28 como, |ψ(t)〉H = e itĤ ~ |ψ(t)〉. (3.29) Un cálculo sencillo nos permite obtener el valor de expectación del operador  en el estado |ψ(t)〉 que evoluciona en el tiempo, considerando qued|ψ(t)〉H/dt = 0: 〈ψ(t)|Â|ψ(t)〉 =〉ψ(0)|e itĤ ~ Âe −itĤ ~ |ψ(0)〉 =〉ψ(0)|ÂH(t)|ψ(0)〉 = 〈ψ|ÂH(t)|ψ〉H . (3.30) donde, ÂH(t) = Û †(t)ÂÛ(t) = e itĤ ~ Âe −itĤ ~ . (3.31) Es decir, el valor de expectación de un operador es el mismo en el marco de Schrödinger y Heisenberg. 3.3.3. Esquema de Dirac El marco de interacción o esquema de Dirac, es útil para describir fenómenos cuánticos con Hamiltonianos que dependen explícitamente del tiempo y además podemos separar de la siguiente manera Ĥ = Ĥ0 + V̂ , donde Ĥ0 es independiente del tiempo y V̂ puede depender del tiempo. Aquí ambos, vectores de estado y operadores evolucionan en el tiempo, por lo tanto es necesario encontrar las ecuaciones de movimiento de los vectores de estado y los operadores. Los vectores de estado se de�nen como, |ψ(t)〉I = eiĤ0t/~|ψ(t)〉, (3.32) y su evolución temporal está dada por la ecuación, i~ d|ψ(t)〉I dt = V̂I(t)|ψ(t)〉I , (3.33) con, V̂I(t) = e iĤ0t/~V̂ e−iĤ0t/~. (3.34) Se puede ver que esta es la ecuación de Schrödinger en el esquema de interacción y muestra que la evolución temporal del vector de estado está gobernada por la interacción V̂I . La representación de interacción para un operador ÂI está dada por la ecuación 3.34. Calculando la derivada temporal de ÂI y considerando ∂Â∂t = 0, se puede demostrar que la evolucion de ÂI esta gobernada únicamente por Ĥ0, dÂI dt = 1 i~ [ ÂI , Ĥ0 ] . (3.35) 3.4. La hipótesis cuántica: posición y momento Recordemos que q y p conmutan en mecánica clásica (paréntisis de Poisson). Suponga que son variables cuantizadas, esto es, veremos a las variables clásicas como operadores, lo primero en cuántica es calcular [q, p]. Antes de describir la evolución de una variable dinámica dentro del contexto de la mecá- nica clásica y hacer generalización a la mecánica cuántica, conviene hacer un repaso de los paréntesis de Poisson. 3.4.1. Paréntesis de Poisson El paréntesis de Poisson de dos variables dinámicas u y v se de�ne en términos de las coordenadas generalizadas qi y los momentos pi del sistema, {u, v} = ∑ j ( ∂u ∂qj ∂v ∂pj − ∂u ∂pj ∂v ∂qj ) . (3.36) Como las variables qi son independientes de pi, tenemos, ∂qj ∂pk = 0, ∂pj ∂qk = 0, (3.37) entonces podemos mostrar que, {qj, qk} = {pj, pk} = 0, {qj, pk} = δjk. (3.38) Usando la ecuación 3.36 podemos inferir fácilmente las siguientes propiedades de los paréntesis de Poisson: 1. Antisimetría: {A,B} = −{B,A}, 2. Linealidad: {A,αB + βC + γD + · · · } = α{A,B}+ β{A,C}+ γ{A,D}+ · · · 3. Complejo conjugado: {A,B}∗ = {A∗, B∗} 4. Distributividad: {A,BC} = {A,B}C +B{A,C}, {AB,C} = A{B,C}+ {A,C}B 5. Identidad de Jacobi, {A, {B,C}}+ {B, {C,A}}+ {C, {A,B}} = 0. (3.39) Estas propiedades son similares a las propiedades de los operadores mecánico cuanti- cos, las cuales expondremos más adelante. Recordemos las ecuaciones de movimiento en la formulación hamiltoniana [2], dqi dt = ∂H ∂pi (3.40) dpi dt = −∂H ∂qi . (3.41) La evolución de una variable dinámica u = u(q, p, t) es entonces, du dt = ∂u ∂t + { ∂u ∂qi ∂qi ∂t + ∂u ∂pi ∂pi ∂t } (3.42) Sustituyendo las ecuaciones de Hamilton (6.1), du dt = ∂u ∂t + { ∂u ∂qi ∂H ∂pi − ∂u ∂pi ∂H ∂qi } . (3.43) La evolución temporal total de una variable dinámica u está dada por la siguiente ecuación de movimiento, du dt = {u,H}+ ∂u ∂t . (3.44) Donde hemos sustituido la de�nición de paréntesis de Poisson, dada por la ecuación 3.36. Notemos que si u no depende explícitamente del tiempo, su evolución temporal está dada simplemtene por du/dt = {u,H}. Si du/dt = 0 ó {u,H} = 0, se dice que u es una constante de movimiento. 3.4.2. Álgebra de conmutadores El conmutador de dos operadores  y B̂ está de�nido como, [Â, B̂] = ÂB̂ − B̂Â, (3.45) y el anti-conmutador, {Â, B̂} = ÂB̂ + B̂Â. (3.46) Dos operadores conmutan si [Â, B̂] = 0. Para los operadores de posición q̂i y momento p̂j = i~ ddqj , [q̂j, p̂j] = i~δij. (3.47) Hay una analogía entre el álgebra de conmutadores de operadores y el álgebra de los paréntesis de Poisson de la mecánica clásica. Esta analogía permite ligar a la mecánica clásica con la mecánica cuántica. 3.4.3. Evolución temporal y valores de expectación Queremos estudiar en esta sección la dependencia temporal de los valores de expectación de un operador lineal. Si el estado |ψ(t)〉 está normalizado, el valor de expectación está dado por, 〈Â〉 = 〈ψ(t)|Â|ψ(t)〉. (3.48) Si recordamos que la evolución de un vector de estado |ψ(t)〉 de un sistema está gobernado por la ecuación de Schrödinger dependiente del tiempo, i~ ∂|ψ(t)〉 ∂t = Ĥ|ψ(t)〉, (3.49) con Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema, podemos escribir d〈Â〉/dt de la siguiente manera, d dt 〈Â〉 = 1 i~ 〈[Â, Ĥ]〉+ 〈 ∂ ∂t 〉 . (3.50) Notemos que si la observable  no depende explícitamente del tiempo, el termino ∂Â/∂t es cero, y la razón de cambio del valor de expectación de  está dado por el conmutador. Además si la observable A conmuta con el hamiltoniano, la cantidad d〈Â〉/dt es cero, entonces el valor de expectación 〈Â〉 será constante en el tiempo. Si  es independiente del tiempo y conmuta con el hamiltoniano, decimos que la observable A es una constante de movimiento, esto es, el valor de expectación de un operador que no depende del tiempo y conmuta con el hamiltoniano es una constante en el tiempo: [Ĥ, Â] = 0→ ∂ ∂t = 0,→ 〈Â〉 = constante. (3.51) Se puede demostrar que la energía, el momento lineal y el momento angular de un sistema aislado son cantidades consevadas: d〈Ĥ〉/dt = 0, d〈P̂ 〉/dt = 0 y d〈L̂〉/dt = 0. Esto implica que los valores de expectación de Ĥ, P̂ y L̂ son constantes. Recordemos de la mecánica clásica que la conservación de la energía, el momento lineal y el momento angular son consecuencias de las siguientes simetrías, respectivamente, homogeneidad del tiempo, homogeneidad del espacio e isotropía del espacio. Estas simetrías están asociadas con invariancias en la traslación en el tiempo, traslación en el espacio y rotaciones espaciales. Retomemos el esquema de Heisenberg, visto anteriormente. Supongamos que el operador  no depende explícitamente del tiempo, (i.e., ∂Â/∂t = 0) y ya que Û(t) es un operador unitario, tenemos de la ecuación 3.31, dÂH(t) dt = ∂Û †(t) dt ÂÛ(t) + Û †(t) ∂Û(t) ∂t = − 1 i~ Û †ĤÛÛ †ÂÛ + 1 i~ Û †ÂÛ Û †ĤÛ Finalmente, dÂH(t) dt = 1 i~ [ ÂH , Û †ĤÛ ] . (3.52) Como los operadores Û(t) y Ĥ conmutan, tehemos Û †(t)ĤÛ(t) = Ĥ, por lo tanto, podemos reescribir la ecuación anterior como, dÂH(t) dt = 1 i~ [ ÂH , Ĥ ] . (3.53) Esta es la ecuación de movimiento de Heisenberg, la cual generalmente es muy difícil de resolver. Note que la estructura de la ecuación 3.53 es similar a la ecuación clásica 3.44 cuando  no depende explícitamente del tiempo, i. e. dA/dt = {A,H}, donde {A,H} es el paréntesis de Poisson. 3.5. Relaciones de incertidumbre entre dos operadores Sean 〈Â〉 y 〈B̂〉 con respecto a un vector de estado normalizado |ψ〉. Esto es, 〈Â〉 = 〈ψ|Â|ψ〉 y 〈B̂〉 = 〈ψ|B̂|ψ〉. Las incertidumbres ∆A y ∆B se de�nen, ∆A = √ 〈Â2〉 − 〈Â〉2, ∆B = √ 〈B̂2〉 − 〈B̂〉2, (3.54) donde 〈Â2〉 = 〈ψ|Â2|ψ〉 y similarmente para B̂. Supongamos que la acción de los operadores ∆ y ∆B̂, ∆ = Â− 〈Â〉, ∆B̂ = B̂ − 〈B̂〉 (3.55) sobre cualquier estado |ψ〉 está dado por, ∆Â|ψ〉 = |χ〉, ∆B̂|ψ〉 = |φ〉 (3.56) La desigualdad de Schwartz para los estados |χ〉 y |φ〉 está dada por, 〈χ|χ〉〈φ|φ〉 ≥ |〈χ|φ〉|2. (3.57) Como  y B̂ son hermitiano, ∆ y ∆B̂ también son hermitianos, de tal forma que ∆† = † − 〈Â〉 = ∆ y similarmente para ∆B̂† = ∆B̂. Usando la hermiticidad de ∆ y ∆B̂, podemos demostrar que, ∆† = ∆Â→ 〈χ|χ〉 = 〈ψ|∆†∆Â|ψ〉 = 〈ψ|(∆Â)2|ψ〉 = 〈(∆Â)2〉 (3.58) y de manera similar 〈φ|φ〉 = 〈(∆B̂)2〉. Entonces la ecuación 3.57 se convierte en, 〈(∆Â)2〉〈(∆B̂)2〉 ≥ |〈∆Â∆B̂〉|2. (3.59) El último término puede reescribirse como, ∆Â∆B̂ = 1 2 [∆Â,∆B̂] + 1 2 {∆Â,∆B̂} = 1 2 [Â, B̂] + 1 2 {∆Â,∆B̂}, (3.60)donde hemos usado el hecho de que el conmutador [∆Â,∆B̂] es igual a [Â, B̂]. Como [Â, B̂] es anti-hermitiano y su valor de expectación es real y además el valor de expectación de un operador anti-hermitiano es imaginario, el valor de expectación de 〈∆Â∆B̂〉 de la ecuación 3.60 es igual a la suma de un parte real 〈{∆Â,∆B̂}〉 y una parte imaginaria 〈[Â, B̂]〉, entonces, |〈∆Â∆B̂〉|2 = 1 4 |〈[Â, B̂]〉|2 + 1 4 |〈{∆Â,∆B̂}〉|2. (3.61) Notemos que el último término es un número positivo y real, por lo tanto podemos inferir, |〈∆Â∆B̂〉|2 ≥ 1 4 |〈[Â, B̂]〉|2. (3.62) Comparando las ecuaciones 3.59 y 3.62 concluimos que, 〈(∆Â)2〉〈(∆B̂)2〉 ≥ 1 4 |〈[Â, B̂]〉|2. (3.63) Usando las ecuaciones 3.55 tenemos 〈(∆Â)2〉 = 〈Â2〉 − 〈Â〉2 y combinando esto con la ecuación 3.54 obtenemos 〈(∆Â)2〉 = (∆A)2. Finalmente, ∆A∆B ≥ 1 2 |〈[Â, B̂]〉|. (3.64) Esta relación de incertidumbre es muy importante en mecánica cuántica. Su aplicación a los operadores de posición y momento conduce a las relaciones de incertidumbre de Heisen- berg. 3.6. Función de Green 3.6.1. Función de Green en matemáticas Consideremos una ecuación diferencial inhomogénea, para entender mejor el concepto y por simplicidad trataremos el caso en una dimensión, D̂xy(x) = f(x), (3.65) donde D̂x es un operador diferencial lineal que depende de la variable x. Supongamos que dicho operador es el del oscilador armónico amortiguado, D̂x = d2 dx2 + γ d dx + ω2. (3.66) Cuya solución es de la forma, y(x) = ycomplemetaria + yparticular, (3.67) donde ycomplementaria es la solución de la ecuación homogénea D̂xyhomogénea(x) = 0 y yparticular(x) es cualquier solución especial de la ecuación inhomogénea. Para obtener dicha solución espe- cial de la ecuación inhomogénea para cualquier inhomogeneidad f(x), necesitamos primero encontrar la solución a la siguiente ecuación, D̂xG(x, x ′) = δ(x− x′), (3.68) la cual de�ne la función de Green G(x, x′) que corresponde al operador D̂x. Una vez que encontramos G(x, x′) cualquier solución especial puede construirse por medio de, yparticular(x) = ∫ dx′G(x, x′)f(x′). (3.69) 3.7. Formalismo 3.7.1. Función de Green independiente del tiempo Una función de Green es la solución de una ecuación diferencial homogénea de la forma, [z − L(r)]G(r, r′; z) = δ(r − r′), z ∈ C (3.70) sujeta a ciertas condiciones a la frontera para las dos coordenadas de posición r y r′ sobre una super�cie S en el dominio Ω de r y r′. Suponemos que z es una variable compleja con λ ≡ Re{z} y s ≡ Im{z}, L(r) es un operador diferencial lineal, Hermitiano e independiente del tiempo que posee un conjunto completo de eigenfunciones {ψn(r)}, es decir, L(r)ψn(r) = λnψ(r). (3.71) donde {ψn(r)} satisface las mismas condiciones a la frontera que G(r, r′; z) Recordemos que ψn forma una base ortonormal y completa:∫ n ψ∗n(r)ψm(r)dr = δnm y ∑ n ψn(r)ψ ∗ m(r) = δ(r − r′). (3.72) Donde δ(r − r′) es la función delta de Dirac, que satisface: δ(r − r′) = { 0 si (r − r′) 6= a ∞ si (r − r′) = a. Es importante notar que la función delta de Dirac actuando sobre una función f(r) satisface la siguiente propiedad,∫ Ω δ(r − r′)f(r′)dr′ = f(r) para cualquier r′ ⊂ Ω. (3.73) Trabajar con las funciones de Green se facilita si trabajamos en la notación de Dirac, donde se de�ne el ket |r〉 como el eigenvector del operador de posición, escribimos, ψn(r) = 〈r|n〉 (3.74a) δ(r − r′)L(r) ≡ 〈r|L|r′〉 (3.74b) G(r, r′; z) ≡ 〈r|G(z)|r′〉 (3.74c) 〈r|r′〉 = δ(r − r′) (3.74d)∫ dr|r〉〈r| = 1 (3.74e) Usando esta notación, podemos escribir las ecuaciones 3.70, 3.71 y 3.72 como, (z − L)G(z) = 1 (3.75a) L|ψn〉 = λn|ψn〉 (3.75b) 〈ψn|ψm〉 ≡ δnm (3.75c)∑ n |ψn〉〈ψn| = 1 (3.75d) Usando las ecuaciones anteriores, podemos calcular el elemento de matriz 〈r|, |r′〉 de la ecua- ción 3.75(a), 〈r|(z − L)G(z)|r′〉 = 〈r|1|r′〉 = 〈r|r′〉 = δ(r − r′) (3.76) El lado izquierdo esta dado por, 〈r|(z − L)G(z)|r′〉 ≡ 〈r|zG(z)|r′〉 − 〈r|LG(z)|r′〉. (3.77) Usando la ecuación 3.74(c) podemos reescribir lo anterior como, 〈r|(z − L)G(z)|r′〉 ≡ zG(r, r′; z)− 〈r|LG(z)|r′〉, (3.78) y considerando además que estamos trabajando sobre una base completa, podemos usar la ecuación 3.74(e) y obtenemos, 〈r|(z − L)G(z)|r′〉 = zG(r, r′; z)− ∫ ds〈r|L|s〉〈s|G(z)|r′〉 = zG(r, r′; z)− L(r)〈r|G(z)|r′〉. (3.79) Usando la ecuación 3.74(c) podemos reescribir toda la ecuación como, zG(r, r′; z)− L(r)G(r, r′; z) = δ(r − r′). (3.80) Finalmente, factorizando obtenemos le ecuación 3.70. El hecho de que podamos expresar la función de Green independiente del tiempo en notación de Dirac signi�ca que la función de Green de las coordenadas de posición r y r′ está de�nida en el espación de Hilbert. Esto quiere decir que el espacio L2 es un espacio de Hilbert y ya no estamos restringidos a trabajar únicamente con la posición, sino que podemos aplicar una transformada de Fourier de r ⊂ L2 a k ⊂ L2 y trabajar en el espacio de momentos. Si todos los eigenvalores de z − L son distintos de cero, entonces podemos resolver la ecuación 3.75(a) como, G(z) = 1 z − L . (3.81) Multiplicando la ecuación 3.81 por la ecuación 3.75(d) obtenemos, G(z) = 1 z − L ∑ n |ψn〉〈ψn|. (3.82) donde 1 z−L es una constante. Usando la ecuación 3.75(b) para sustituir los eigenvalores del operador L, obtenemos, G(z) = ∑ n 1 z − L |ψn〉〈ψn| = ∑ n |ψn〉〈ψn| z − λn , z 6= λn (3.83) De esta última ecuación podemos ver que G(z) está en función de un numero �nito de polos que corresponde a los eigenvalores discretos de L. Si queremos de�nir G(r, r′; z) en z = λ, como G(r, r′; z) tiene un polo en λ, tendremos que de�nir G(r, r′;λ) a través de un proceso límite. 3.7.2. De�nición Denotemos con G+ a la función de Green de�nida sobre el plano Im(z) > 0 y G− la correspondiente en Im(z) < 0. De�nimos G en z = λ como, G±(r, r′;λ) ≡ ĺım s→0+ G(r, r′;λ± is), donde z = λ+ is. (3.84) Teorema Sea z una variable compleja compuesta de una parte real λ y una parte imaginaria s. Sea L(r) un operador diferencial lineal, Hermitiano e independiente del tiempo con un conjunto completo de eigenfunciones ψn, y sea u(r) una función desconocida sobre la que L está operando. Suponga que f(r) es una función arbitraria inhomogénea que nos da la siguiente ecuación diferencial, [z − L(r)]u(r) = f(r) (3.85) La solución de esta ecuación diferencial u(r) está dada por, u(r) = {∫ G(r, r′; z)f(r′)dr′ si z 6= λn∫ G±(r, r′;λ)f(r′)dr′ + ψ(r) si z = λ. Demostración Demostraremos únicamente el caso donde z 6= λn. Si u(r) actúa sobre la solución pro- puesta, [z − L(r)]u(r) = [z − L(r)] ∫ G(r, r′; z)f(r′)dr′. (3.86) Como estamos tratando con operadores lineales, [z − L(r)]u(r) = [z − L(r)] ∫ G(r, r′; z)f(r′)dr′ = ∫ [z − L(r)]G(r, r′; z)f(r′)dr′, (3.87) y usando la ecuación 3.70,∫ [z − L(r)]G(r, r′; z)f(r′)dr′ = ∫ δ(r − r′)f(r′)dr′ (3.88) Y usando la ecuación 3.73 obtenemos el resultado deseado. Corolario La solución u(r) no existe cuando z coincide con un eigenvalor discreto de L, a menos que todas las eigenfunciones asociadas con λn sean ortogonales a f(r). Véase [3] para la demostración. 3.8. Función de Green en Mecánica Cuántica Para resolver algunos de los problemas a la frontera que surgen en la mecánica cuántica (por ejemplo en teoría de perturbaciones) se emplea el método de la función de Green. Por lo tanto la ecuación diferencial a resolver es la ecuación de Schrödinger. 3.8.1. Solución de la ecuación de Schrödinger La ecuación de Schrödinger, Hψ = Eψ, (3.89) puede escribirse de manera equivalente como, [E −H(r)]ψ(r) = 0, (3.90) donde H es el operador Hamiltoniano y E denota los eigenvalores de la energía corres- pondientes. Usando el formalismo presentado anteriormente, resolvemos la ecuación 3.90, identi�cando, 1. L(r)→ H(r) 2. λ→ E 3. λ+ is = z → z = E + is 4. λn → En 5. ψn(r)→ ψn(r). Por lo tanto, de�nimos la función de Green de la ecuación de Schrödinger como, [E −H(r)]G(r, r′;E) = δ(r − r′). (3.91) Siguiendo el método de la demostración, obtenemos el siguiente resultado, ψ(r) = {∫ G(r, r′; z)f(r′)dr′ si z 6= λn∫ G±(r, r′;λ)f(r′)dr′ + ψ(r)si z = λ. donde, G(r, r′; z) = ∑ n ψn(r)ψ ∗(r′) z − En (3.92) y f(r) = 0. Clase 4 Probabilidad En termodinámica la cantidad fundamental es la entropía S, que surge como resultado de todas las coordenadas ignoradas. Se podría decir que es una medida de la ignoracia. La razón es que la diferencia de escalas de tiempo entre las medidas (mediciones) y los movi- mientos atómicos es enorme, por lo tanto en un sistema macroscópico de muchas partículas las mediciones escalares no se enteran de la dinámica atómica y entonces la medida es un �promedio�. Cada vez que se mide se obtiene un número diferente. ¾Cuál es el mejor número? el promedio, de�nido según la expresión, x = 1 N N∑ i xi este número es el primer resultado de la ignorancia. ¾Cuál es la precisión de esta medida? Barras de error Desviación cuadrática⇒ media Fluctuaciones no medibles por lo tanto, no pasa de ser una adivinanza o �concepto estadístico�. En [4], Henri Poincaré cita a Joseph Bertrand (Calculus of Probabilities): �la probabilidad es lo opuesto a la certeza, por lo tanto es, resultado de lo que ignoramos y consecuentemente parecería ser lo que no podemos calcular. Entonces aquí hay, cuando menos, una contradicción aparante y una sobre la que ya se ha escrito mucho1.� P = Ni NT Este número es un hecho matemático pero su interpretación puede ser deformada por el vulgo ⇒ siempre usaremos la de�nición matemática de Poicaré en su interpretación de cómo está la entropía relacionada con la estadística. Partimos de la ecuación diferencial que conocemos, el gas ideal monoatómico para N = cte, 1Probability is the opposite of certainty; it is thus what we are ignorant of, and consequently it would seem to be what we cannot calculate. There is here at least an apparent contradiction, and one on which much has already been written. 45 S = S0 +NR ln [( U U0 3/2 V V0 )] ∼ N ln [( η U N 3/2 V N )] (4.1) donde se ha renombrado η ≡ ( N U0 )3/2 ( N V0 ) y U N = (∆p) 2 2m , V N = (∆x)3. S ∼ ln [ η (∆p∆x)3 uw ] (4.2) con u ≡ (2m) 3/2 η y w ≡ (∆x0∆p0)3 es una unidad de volumen en el espacio fase que corresponde a una partícula. Por lo tanto, podemos reescribir, S ≈ ln Γ (4.3) con Γ ≡ ( ∆x∆p w )3N . Este volumen es el que dejan libres las restricciones (constantes de movimiento). Por ejemplo, una mosca se mueve en un cuarto en 3D, pero y ¾si la mosca no vuela?. Siempre hay una probabilidad de que la mosca no vuele y es por esto que para seguir adelante debemos de hablar de la probabilidad y siempre usaremos el concepto matemático. Entonces tenemos que desarrollar un método para calcular cantidades de la forma, Pi = Ni NT , (4.4) donde P representa la probabilidad, Ni la clase y NT la muestra. Este método se llama estadística. Lo primero que tenemos que hacer es encontrar Ni, esto lo hacemos con la ayuda de la función, δ(x− xs) = { 0 si x′ 6= xs 1 si x′ = xs si xs es una variable continua, esta función se llama delta de Dirac. Entonces contar signi�ca, f(x′) = ∑ s δ(x− xs). (4.5) Ejemplo: Las clases pueden ser cualquier variable de estado: edades, cali�caciones, llamadas telefónicas. Sea un conjunto de N variables aleatorias, x1, x2, · · · , xN podemos obtener su función distribución de probabilidad, por ejemplo la mostrada en la �gura 4, a partir de un proceso estadístico. El número total de eventos N asociada a dicha distribución está dado por, N = ∑ x′ f(x′) = ∫ ∞ −∞ f(x′)dx′. (4.6) De la misma forma, el número de eventos dentro de un rango, 0 0.1 0.2 -10 -5 0 5 10 f (x ) x N(x1 < x < x2) = ∫ x2 x1 f(x)dx. (4.7) El siguiente paso es investigar las propiedades de la función distribución de probabilidad f . La de�nición del promedio de cualquier cantidad, 〈x〉 = ∫ dx′ρ(x)x′ caso continuo (4.8) 〈x〉 = 1 N ∑ s x(s) = ∑ x f(x)x N caso discreto, (4.9) donde, ρ(x) = f(x)∫ f(x)dx = f(x) N . (4.10) se conoce como peso estadístico y 〈x〉 es el centro de masa (centroide) de la distribución (pri- mer momento de ρ). Similarmente, podemos de�nir los momentos de orden n de ρ, denotados con µn de acuerdo a la siguiente expresión, µn = ∫ ρ(x)xndx. (4.11) esto implica que µ0 = 0 (centroide), µ1 = 〈x〉 y µ2 = 〈x2〉. El segundo momento alrededor de la media se llama desviación cuadrática media y está de�nida como, σ = ∫ dx′ (x′〈x〉)2ρ(x′) = 〈∆x2〉 = 〈(x−x)2〉 = 〈x2〉−〈2x〈x〉〉+〈〈x〉2〉 = 〈x2〉−〈x〉2, (4.12) que sigue de que el promedio es una operación lineal. NOTA: ρ es la densidad de probabilidad y es un concepto equivalente a Ni/N , pero en estadística no se necesiuta esta última y no tiene signi�cado de probabilidad (problema ergódico). En general el promedio de cualquier función g es, 〈g(x)〉 = ∫ dx g(x)ρ(x′), (4.13) f(x′) es el promedio de la función δ(x′ − x), 〈δ(x′ − xs)〉 = ∫ dx ρ(x)δ(x− x′) = ρ(x′). (4.14) Extensión: Escojamos un grupo R (subclase de la muestra) y de�nimos la función de conteo, θR(s) = { 1 si s ∈ R 0 si s 6∈ R Entonces, N = ∑ s θR(s) y P (R) = NR N = 〈θR〉, es la distribución de probabilidad de la clase R. NOTA: En general un método para conocer una función de distribución es calcular todos sus momentos, bautizamos los momentos como funciones de correlación, de�nidas para la distancia k de acuerdo a, Ck = 1 N ′′ N ′′∑ s=1 x(s)x(s+ k)− 〈x〉2, donde N ′′ = N − k (4.15) después hablaremos de la utilidad de las funciones de correlación porque son medibles, por ejemplo, en un experimento de dispersión. Por lo pronto, nótese que si, Ck = 0 ⇒ 〈xsxs+k〉 = 〈x〉2 ⇒ 〈xs〉〈xs+k〉, los eventos no están correlacionados, es decir, son estadísticamente independientes. Este orden es un nuevo concepto estadístico que determinará la distancia entre dos eventos (o muestra estadística). Las funciones de correlación son básicas en la física porque todas las cantidades medibles son funciones de correlación. A continuación damos la de�nición más general de probabilidad, por lo tanto la que hemos obtenidos con la estadística tiene que ser un caso especial de la siguiente de�nición. Para tener una probabilidad se necesita, Un grupo de muestreo (E) De�nir clases (etiquetas, nombres, propiedades) R Pesos estadísticos para cada clase P (R). Las condiciones que se deben satisfacer son, 1. E 6= φ 2. R ⊂ E y, si R1 y R2 son clases R1 ∩R2 es clase R1 ∪R2 es clase si R es clase, Rc es clase. 3. P (R) ≥ 0, ⇒ P (R1 ∪R2) = P (R1) + P (R2)− P (R1 ∩R2) P (E) = 1 Si todo esto se cumple P es una probabilidad. Ejemplo: Consideremos un dado. Cuando lanzamos un dado, existen 6 maneras distintas en las que el dado puede caer, por lo tanto, espacio muestral está dado por, E = {1, 2, 3, 4, 5, 6} Ri = i, i ∈ E Cada una de las caras del dado, tiene una probabilidad asociada de, P (i) = 1 6 , P (1 ∪ 2) = P (1) + P (2) = 1 3 , P (1 ∩ 2) = 0 Consideremos los subespacios, R1 = {1, 2, 3} R2 = {4, 5, 6} por lo tanto, P (R1) = P (R2) = P (1) + P (2) + P (3) = P (4) + P (5) + P (6) = 1 2 Con esto, P (E1, E2) = Pi(E1) + Pi(E2)⇒ 2Pi(Ei) = 1 6 Pi(E1 ∩ E2) = Pi(E1)Pi(E2), P (R1 ∩R2) = P (R1)P (R2) 4.1. Teorema del límite central Consideremos un conjunto de N variables aleatorias x1, x2, · · · , xN , estadísticamente in- dependientes, x = 1 N N∑ i=1 xi, (4.16) si p(x) no depende de i, entonces la distribución de probabilidad f(x) = cte. El valor medio está dado por la expresión, 〈x〉 = ∑N i=1 f(xi)xi∑N i=1 f(xi) , (4.17) y en general para cualquier función g(x) se de�ne como, 〈g(x)〉 = ∑N i=1 f(xi)g(xi)∑N i=1 f(xi) . (4.18) Recordemos que la densidad de probabilidad cumple, ρ(xi) = f(xi)∑N i=1 f(xi) ⇒ ∑ i ρ(xi) = 1, (4.19) y además que, 〈f + g〉 = 〈f〉+ 〈g〉 〈cf〉 = c〈f〉, podemos escribir, ∆x = x− 〈x〉 ⇒ 〈∆x〉 = 0. 〈(∆x)2〉 = N∑ i=1 ρ(xi)(xi − 〈x〉)2 ≥ 0 ⇒ 〈x2〉 ≥ 〈x〉2. 4.1.1. El caminante al azar En esta sección seguiremos el procedimiento desarrollado en la referencia [5]. Tenemos un caminante que comienza su trayectoria en el origen. Cada paso que toma tiene un longitud `, sin embargo las direcciones que toma a paso (izquierda o derecha) son completamenteindependientes entre sí, es decir, a cada paso la probabilidad de ir hacia la derecha es p, mientras que la probabilidad de ir a la izquierda es q = 1− p. En el caso más simple p = q, pero en general p 6= q. Entonces se puede considerar que cada paso esta caracterizado por su probabilidad respec- tiva, independientemente de la historia. La probabilidad de cualquier secuencia de n1 pasos a la derecha y n2 pasos a la izquierda, se obtiene, por lo tanto, de multiplicar las probabilidades respectivas, pp · · · pqq · · · q = pn1qn2 (4.20) Pero hay varias maneras posibles de tomar N pasos de tal forma que n1 de ellos sean a la derecha y n2 a la izquierda, y este número de posibilidades está dado por el factor, N ! n1!n2! . (4.21) Por lo tanto, la probabilidad WN(n1) de tomar n1 pasos de un total N a la derecha y n2 = N − n1 a la izquierda, en cualquier orden se obtiene multiplicando la ecuación 4.20 por 4.21 que da las secuencias posibles de estos pasos, WN(n1) = N ! n1!n2! pn1qn2 (4.22) Esta distribución de probabilidad se llama distribución binomial. Recordando que la ex- pansión binomial está dada por la fórmula, (p+ q)N = N∑ n=0 N ! n!(N − n)! pnqN−n, (4.23) notemos que si conocemos que el caminante ha efectuado n1 pasos a la derecga de un total N , entonces el desplazamiento neto a partir del origen está determinado. La probabilidad PN(m) de que el caminante se encuentre en la posición m después de N pasos es la misma que WN(n1), PN(m) = WN(n1). Recordando que N = n1 + n2 y m = n1 − n2, podemos encontrar, n1 = 1 2 (N +m) n2 = 1 2 (N −m). Sustituyendo en la ecuación 4.22 obtenemos, PN(m) = N !( N+m 2 ) ! ( N−m 2 ) ! p(N+m)/2(1− p)(N−m)/2, (4.24) que para el caso especial p = q = 1/2 toma la forma simétrica, PN(m) = N !( N+m 2 ) ! ( N−m 2 ) ! ( 1 2 )N (4.25) Distribución de probabilidad cuando N es grande Cuando N es grande, la distribución de probabilidad binomial, WN(n1) = N ! n1!n2! pn1qN−n1 , (4.26) tiende a exhibir un máximo pronunciado en algún valor n1 = ñ1 y decrece rápidamente cuando nos alejamos de ñ1. Usaremos esto para encontrar la expresión de WN(n1) cuando N es su�cientemente grande. Si N es grande podemos considerar regiones cerca del máximo de W donde n1 también es muy grande, el cambio fraccional de W cuando n1 cambia por una unidad es relativamente pequeño y por lo tanto se cumple en general, |W (n1 + 1)−W (n1)| << W (n1), (4.27) entonces W puede, en buena aproximación, ser considerada como una función continua de la variable continua n1, aunque sólo valores enteros de n1 son físicamente relevantes. La localización n1 = ñ del máximo de W está determinado aproximadamente por la condición, dW dn1 o equivalentemente d lnW dn1 = 0 (4.28) donde las derivadas son evaluadas en n1 = ñ1. Para investigar el comportamiento de W (n1) cerca de su máximo, pondremos, n1 ≡ ñ1 + η (4.29) y realizamos un desarrollo en series de Taylor de lnW (n1) alrededor de ñ1. La razón de desarrollar el logarítmo en lugar de W surge de que lnW es una función que varía mucho más lentamente en función n1, esto comparado con la variación de W . Entonces el desarrollo en series de potencias para lnW debe converger más rápidamente que el desarrollo de W . Por lo tanto, lnW (n1) = lnW (ñ1) +B1η + 1 2 B2η 2 + 1 6 B3η 3 + · · · (4.30) donde, Bk ≡ dk lnW dnk1 (4.31) es la k-ésima derivada de lnW evaluada en n1 = ñ1. Como estamos desarrollando alrededor del máximo B1 = 0. Además como W es un máximo, entonces el término 12B2η 2 debe ser negativo, i.e., B2 debe ser negativo. Para hacer esto explícito, reescribimos B2 = −|B2|, por lo tanto, sustituyendo W̃ = W̃ (ñ1) en la ecuación 4.30, W (n1) = W̃e 1 2 B2η2+ 1 6 B3η3··· = W̃e− 1 2 |B2|η2e 1 6 B3η3 · · · (4.32) En una región donde η es su�cientemente pequeña los términos de orden superior del desarrollo pueden ser despreciados; por lo tanto, se obtiene en primera aproximación, W (n1) = W̃e − 1 2 |B2|η2 . (4.33) Investigaremos la expresión 4.30 un poco. Considerando la expresión, W (n1) = N ! n1!(N − n1)! pn1qN−n1 (4.34) y tomando el logaritmo obtenemos, lnW (n1) = lnN !− lnn1!− ln(N − n1)! + n1 ln p+ (N − n1) ln q (4.35) Si n es un número entero grande, tal que n >> 1, entonces lnn! puede considerarse como una función casi continua de n, y como el lnn! cambia solamente por una fracción pequeña si n cambia por un entero pequeño, d lnn! dn ≈ ln(n+ 1)!− lnn! 1 = ln (n+ 1)! n! = ln(n+ 1) (4.36) Así, d lnn! dn ≈ lnn (4.37) Por lo tanto la expresión 4.34, puede reescribirse, d lnW dn1 = − lnn1 + ln(N − n1) + ln p− ln q (4.38) Igualando a cero obtenemos el valor n1 = ñ1 donde W es un máximo, y llegamos a, ln [ (N − ñ1) ñ1 p q ] = 0, (4.39) o bien, (N − ñ1)p = ñ1q ⇒ ñ1 = Np (p+ q = 1) (4.40) De igual manera, considerando la derivada a segundo orden, d2 lnW dn21 = 1 n1 − 1 N − n1 (4.41) y evaluando para n1 = ñ1 obtenemos, B2 = − 1 Np − 1 N −Np = − 1 N ( 1 p + 1 q ) = − 1 Npq (4.42) en el último paso, considerando p + q = 1. Por lo tanto B2 es negativo. La constante W̃ la ecuación 4.34 se determina por normalización, considerando que W y n1 con casi continuas, N∑ n1=0 W (n1) ≈ ∫ W (n1)dn1 = ∫ ∞ ∞ W (ñ1 + η)dη = 1 (4.43) Sustituyendo la expresión 4.33 en la ecuación anterior, W̃ ∫ ∞ −∞ e− 1 2 |B2|η2dη = W̃ √ 2π |B2| = 1 (4.44) Por lo tanto la ecuación 4.33 queda como, W (n1) = √ |B2| 2π e 1 2 |B2|(n1−ñ1)2 , (4.45) la cual es la distribución Gaussiana, que ocurre frecuentemente en estadística cuando se trabaja con números grandes. Considerando las expresiones 4.40 y 4.42 llegamos a, W (n1) = (2πNpq) −1/2 exp [ −(n1 −Np) 2 2Npq ] . (4.46) Esta expresión, para valores grandes de N y n1, es más simple que la ecuación 4.34 y no requiere la evaluación de factoriales. Podemos obtener dos expresiones de utilidad si consideramos el problema del caminante al azar. Recordemos que p es la probabilidad de dar un paso a la derecha, por lo tanto, el número promedio de pasos a la derecha de un total de N pasos está dado simplemente por ñ1 = Np, si calculamos la dispersión a esta cantidad, obtenemos, 〈(∆n1)2〉 = Npq desplazamiento cuadrático medio. (4.47) Escribiendo la expresión 4.46, en términos de las dos cantidades anteriores, obtenemos la expresión más general, W (n1) = (2π〈(∆n1)2〉)−1/2 exp [ −(n1 − ñ1) 2 2〈(∆n1)2〉 ] . (4.48) Clase 5 Teorema del límite central El teorema del límite central (TLC) es uno de los resultados más importantes en teoría de probabilidad. Existe otro resultado clásico de la teoría de probabilidad, la ley de los gran- des números, que establece que bajo ciertas condiciones el promedio de las sumas parciales de variables aleatorias independientes e idénticamente distribuidas puede aproximarse al va- lor esperado de estas variables aleatorias. El TLC da información más sustancial sobre las �uctuaciones de los promedios de estas sumas parciales, alrededor de su valor esperado. Esta- blece que si multiplicamos esta �uctuación por √ N , donde N denota el número de variables aleatorias en el promedio, entonces la distribución de la �uctuación tiende a una distribución independiente del número N . Más aún, la distribución a la que se aproxima, no depende de la distribución de las variables aleatorias cuyos promedios son considerados. Esta distribución es una ley universal, conocida como distribución normal. La teoría de Fourier da un método natural para demostrar la versión local del teorema del límite central, i.e., para describir el comportamiento asintótico de la densidad y no de la función de distribución normalizada de las sumas parciales de las variables aleatorias independientes. Consideremos un conjunto de N variables aleatorias (recordemos que el caminante al azar es una suma de variables estocásticas.) x1, x2, · · · , xN , estadísticamente independientes y distribuidas estadísticamente de la misma manera. Sea ~XN la suma de estas N variables aleatorias, es decir, ~XN = N∑ n=1 ~xn (5.1) como los elementos
Compartir