Logo Studenta

fisica estadistica unam compendio_clases - Ronnie Tiburon

¡Este material tiene más páginas!

Vista previa del material en texto

Física Estadística
Facultad de Ciencias, UNAM - Semestre 2015-2
Dr. Rafael Ángel Barrio Paredes
Profesor T.C., SNI III
Instituto de Física,UNAM
e-mail: barrio@�sica.unam.mx
1
Índice general
1. Revisión de termodinámica 9
1.1. Sistemas termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1. Energía Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Postulados de la termodinámica . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1. Equilibrio termodinámico . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Paredes y restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3. El postulado de máxima entropía . . . . . . . . . . . . . . . . . . . . 12
1.2.4. Parámetros intensivos . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.5. Equilibrio térmico y temperatura . . . . . . . . . . . . . . . . . . . . 14
2. Introducción a la física estadística 15
2.1. La ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. La relación de Gibbs-Duhem . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. El principio de mínima energía . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Transformaciones de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Transformada inversa de Legendre . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1. Generalización a más variables . . . . . . . . . . . . . . . . . . . . . . 20
2.6. Potenciales termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.1. Energía libre de Helmholtz . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.2. Entalpía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6.3. La función de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Relaciones de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3. Revisión de Mecánica Cuántica 27
3.1. Proceso de medición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1. Ecuación de eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.2. Observables conmutables . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2. Postulados de la mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1. Espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.2. Transformaciones unitarias . . . . . . . . . . . . . . . . . . . . . . . . 30
3
3.2.3. Transformaciones unitarias in�nitesimales . . . . . . . . . . . . . . . 31
3.2.4. Transformaciones unitarias �nitas . . . . . . . . . . . . . . . . . . . . 31
3.3. Esquemas de la Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.1. Esquema de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.2. Esquema de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.3. Esquema de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. La hipótesis cuántica: posición y momento . . . . . . . . . . . . . . . . . . . 33
3.4.1. Paréntesis de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4.2. Álgebra de conmutadores . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4.3. Evolución temporal y valores de expectación . . . . . . . . . . . . . . 35
3.5. Relaciones de incertidumbre entre dos operadores . . . . . . . . . . . . . . . 37
3.6. Función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6.1. Función de Green en matemáticas . . . . . . . . . . . . . . . . . . . . 38
3.7. Formalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7.1. Función de Green independiente del tiempo . . . . . . . . . . . . . . 39
3.7.2. De�nición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.8. Función de Green en Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . 42
3.8.1. Solución de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . 42
4. Probabilidad 45
4.1. Teorema del límite central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.1. El caminante al azar . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5. Teorema del límite central 55
6. Ensamble y espacio fase 59
6.1. Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2. Matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2.1. Funciones de Green en la física estadística . . . . . . . . . . . . . . . 61
7. Ensambles 65
7.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.2. Colectividad microcanónica . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.2.1. Conexión con la Termodinámica . . . . . . . . . . . . . . . . . . . . . 67
7.3. Algunos comentarios acerca del postulado básico . . . . . . . . . . . . . . . . 68
7.3.1. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3.2. Ensamble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3.3. Mixing (Sinaí, Krylov) . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8. Bases de la mecánica estadística 71
9. Gases cuánticos 73
9.1. Simetría de la función de onda . . . . . . . . . . . . . . . . . . . . . . . . . . 73
9.2. Estadística de Fermi-Dirac y Bose-Einstein . . . . . . . . . . . . . . . . . . . 74
9.2.1. Números de ocupación . . . . . . . . . . . . . . . . . . . . . . . . . . 74
9.2.2. La representación de ocupación . . . . . . . . . . . . . . . . . . . . . 76
9.2.3. Límites: Aproximación clásica . . . . . . . . . . . . . . . . . . . . . . 78
10.Gas de electrones libres 81
10.1. Modelo de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
10.1.1. Derivación de la densidad de estados . . . . . . . . . . . . . . . . . . 82
11.Física Estadística Cuántica 85
11.1. La matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
11.1.1. Propiedades de la matriz densidad . . . . . . . . . . . . . . . . . . . 86
11.2. Ensamble microcanónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
11.3. Ensamble canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
11.3.1. Aplicaciones: Paramagneto �a la Brillouin� . . . . . . . . . . . . . . . 89
11.4. Ensamble gran canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
12.Teoría cuántica de gases ideales 95
12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
12.2. Gas ideal de fotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
12.3. Capacidad calorí�ca de los sólidos . . . . . . . . . . . . . . . . . . . . . . . . 100
12.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
12.3.2. Teoría de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
12.3.3. Teoría de Debye . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
13.Condensación de un gas ideal de bosones 107
13.0.4. Demostración de que existe una discontinuidad: Transición de fase . . 110
14.Modelos de la conductividad eléctrica 113
14.1. Paul Karl Ludwig Drude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
14.2. Modelo Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
14.2.1. A temperatura cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
14.2.2. A temperatura diferente de cero (300K) . . . . . . . . . . . . . . . . . 117
15.Magnetismo 121
15.1. Magnetismo de los átomos y electrones libres . . . . . . . . . . . . . . . . . . 122
15.1.1. Momento angular total de los átomos . . . . . . . . . . . . . . . . . . 123
15.2. Suceptibilidades atómicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
15.2.1. Capas electrónicas llenas . . . .. . . . . . . . . . . . . . . . . . . . . 126
15.2.2. Capa electrónica semi-llena . . . . . . . . . . . . . . . . . . . . . . . 126
15.2.3. Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . . . . . . . 128
15.3. Teorema de Van Leeuwen. Diamagnetismo de Landau . . . . . . . . . . . . . 129
16.Interacciones magnéticas 133
16.1. Interacciones magnéticas dipolo-dipolo . . . . . . . . . . . . . . . . . . . . . 133
16.2. Interacción de intercambio y el modelo de Heisenberg . . . . . . . . . . . . . 134
16.2.1. Ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 134
16.2.2. Aproximación de Heitler-London . . . . . . . . . . . . . . . . . . . . 136
16.2.3. Teorema de Mermin y Wagner . . . . . . . . . . . . . . . . . . . . . . 143
17.Hamiltonianos modelo 145
17.1. Caso particular: Hamiltoniano de Heisenberg . . . . . . . . . . . . . . . . . . 145
17.1.1. Aproximación de Bethe-Peierls . . . . . . . . . . . . . . . . . . . . . 145
17.1.2. Red de Bethe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
17.1.3. El hamiltoniano más simple en la red de Bethe . . . . . . . . . . . . . 149
17.2. Solución exacta del hamiltoniano de Ising en una dimensión . . . . . . . . . 152
17.2.1. Eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
18.Transiciones de fase 155
18.1. Transiciones de fase de primer orden . . . . . . . . . . . . . . . . . . . . . . 155
18.1.1. Calor latente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
18.1.2. Fronteras en las fases . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
18.1.3. Ecuación de Clausis-Clapeyron . . . . . . . . . . . . . . . . . . . . . 158
18.1.4. Isotermas inestables y ecuación de van der Waals . . . . . . . . . . . 160
18.1.5. Sistemas multicomponentes . . . . . . . . . . . . . . . . . . . . . . . 162
18.1.6. Transiciones de fase entre las fases sólida y líquida . . . . . . . . . . . 164
18.1.7. La regla de las fases de Gibbs . . . . . . . . . . . . . . . . . . . . . . 165
18.1.8. Diagramas de fases para sistemas binarios . . . . . . . . . . . . . . . 166
18.1.9. Diagramas de fase eutécticos: Aleaciones . . . . . . . . . . . . . . . . 167
18.2. Teoría de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
18.2.1. Repaso de fenómenos críticos . . . . . . . . . . . . . . . . . . . . . . 168
18.2.2. Transiciones de fase de segundo orden . . . . . . . . . . . . . . . . . . 170
19.Sistemas fuera de equilibrio 175
19.1. No equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
19.2. Regreso al equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
19.3. Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
19.3.1. Relaciones de Onsager . . . . . . . . . . . . . . . . . . . . . . . . . . 177
20.Sistemas fuera de equilibrio II 181
20.1. Ejemplo: Resonancia magnética . . . . . . . . . . . . . . . . . . . . . . . . . 181
20.1.1. Knight shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
20.1.2. Chemical shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
21.Transporte y la ecuación de Boltzmann 187
21.1. Conservación de la masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
21.1.1. Ecuación de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . 187
21.1.2. La derivada total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
21.2. Conservación del momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
21.2.1. Ecuación de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
21.2.2. Ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
21.2.3. Ecuación de Navier-Stokes . . . . . . . . . . . . . . . . . . . . . . . . 190
21.3. Transporte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
22.Teoría del transporte de Boltzmann 195
22.1. Aproximación del tiempo de relajación . . . . . . . . . . . . . . . . . . . . . 195
22.1.1. Ejemplo 1: Conductividad . . . . . . . . . . . . . . . . . . . . . . . . 195
22.1.2. Ejemplo 2: Viscosidad . . . . . . . . . . . . . . . . . . . . . . . . . . 198
23.Movimiento Browniano y la ecuación de Langevin 201
23.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
23.2. Desplazamiento cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . 203
24.Ecuación de Fokker-Planck 205
A. Sistema en no-equilibrio 209
B. Teorema de �uctuación disipación 213
C. Relaciones de reciprocidad de Onsager 215
D. Teoría cinética 219
D.1. El teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
D.2. El operador de colisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
D.3. Estadística de partículas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
D.3.1. Momentos de la distribución de partículas . . . . . . . . . . . . . . . 221
D.3.2. Invariantes colisionales . . . . . . . . . . . . . . . . . . . . . . . . . . 222
D.3.3. Flujo de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
D.3.4. Flujo de impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
D.3.5. Flujo de energía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
D.4. Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
D.4.1. El teorema H de Boltzmann . . . . . . . . . . . . . . . . . . . . . . 225
D.4.2. La Maxwelliana local . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Bibliografía 227
Clase 1
Revisión de termodinámica
En mecánica, el estado de un sistema está completamente especi�cado a un instante
de tiempo dado si la posición y la velocidad de cada partícula (elemento de masa) del que
compone al sistema son conocidas. Para un sistema compuesto de un número N de partículas
esto requiere el conocimiento de 6N variables. Los sistemas termodinámicos se componen de
un número muy grande de partículas (átomos o moléculas), por lo que para especi�car el
estado del mismo se requieren conocer 6N variables, donde N ∼ 106 (número de Avogadro).
Más aún, resulta innecesaria dicha descripción, ya que las cantidades con las que se trabajan
en termodinámica son propiedades promedio del sistema, es decir, un conocimiento detallado
del movimiento de cada partícula es irrelevante.
La termodinámica es el estudio de las consecuencias macroscópicas de promediar las
coordenadas microscópicas, que debido a la tosquedad de las observaciones macroscópicas,
no aparecen explícitamente en la descripción del sistema.
Una de las consecuencias de estos modos atómicos �escondidos� es el de actuar como
repositorios de energía. Por ejemplo, la energía que se trans�ere por medio de un �modo
mecánico� se llama trabajo mecánico (-P dV ), la energía transferida a través de un �modo
eléctrico� se llama trabajo eléctrico. Una transferencia de energía a través de los modos
atómicos escondidos se llama calor.
1.1. Sistemas termodinámicos
Consideremos un ejemplo de un sistema muy simple: homogéneo, isotrópico, sin cargas
y químicamente estable sin efectos de super�cie, sobre el que no in�uyen campos eléctricos,
magnéticos y la fuerza de gravedad, etc.
¾ cuáles son las coordenadas o promedios importantes?
Coordenadas extensivas:
{
1. V (volumen)
2. N1, N2, N3 (número de partículas)
La geometría del sistema en consideración está caracterizada no solamente por su volumen,
sino también por su forma. Sin embargo, la mayoría de las propiedades termodinámicas
generalmente son independientes de la forma, y por lo tanto el volumen es el único dato
9
geométrico relevante. Sólo en casos en los que la razón entre la super�cie y el volumen es
muy grande (por ejemplo una substancia fínamente granulada), es necesario considerar la
super�cie.
1.1.1. Energía Interna
La termodinámica también puede ser de�nida comoel estudio de la energía, las transfor-
maciones de la energía y sus relaciones con la materia. La energía se ve como la habilidad de
causar cambios. Es denotada generalmente con la letra U , y es una cantidad extensiva que es
la manifestación de la ley de conservación de energía, también conocida como primera ley de
la termodinámica, que simplemente establece que durante una interacción, la energía puede
cambiar de una forma a otra, pero su cantidad total permanece constante.
U = W +Q (1.1)
1.2. Postulados de la termodinámica
1.2.1. Equilibrio termodinámico
Los estados de equilibrio tienen la propiedad de no variar siempre y cuando las condiciones
externas permanezcan sin cambio. Así, por ejemplo, un gas encerrado en un contenedor de
volumen constante está en equilibrio cuando su presión es constante y su temperatura es
igual a la del medio que lo rodea.
El problema fundamental de la termodinámica es la determinación de los estados de equi-
librio alcanzado después de un proceso efectuado sobre un sistema cerrado. Por conveniencia,
Callen [1] formula los postulados sólo para sistemas simples, de�nidos como aquéllos que son
macroscópicamente homgéneos, isotrópicos y sin carga, que son lo su�cientemente grandes
de tal forma que los efectos de super�cie pueden ser despreciados y que no actúan sobre ellos
campos eléctricos, magnéticos o gravitacionales.
Postulado I: Existen estados de equilibrio macroscópicos, caracterizados com-
pletamente por la energía interna U , el volumen V y el número de moles Ni de las
componentes químicas. Como suponemos que estos estados están caracterizados
completamente por los parámetros extensivos, la energía interna U , el volumen
V y el número de moles Nr de las componentes químicas.
La composición química se re�ere al número de cada tipo de partícula considerada impor-
tante para el sistema. Un sistema compuesto se puede formar a partir de múltiples subsistemas
α, cada uno de los cuales tienen estados de equilibrio caracterizados por sus propios valores de
U (α), V (α) y N (α)1 , · · ·N
(α)
r . El sistema compuesto es cerrado si su energía total U = U (α), su
volumen V = V (α) y su número total de moles Nr = N
(α)
r están restringidos. Las restricciones
internas pueden prevenir el �ujo de energía, volumen o materia entre los subsistemas.
1.2.2. Paredes y restricciones
La descripción de un sistema termodinámico requiere de la especi�cación de las �paredes�
que lo separan de los alrededores y que de�nen las condiciones a la frontera. Convencio-
nalmente se re�eren a las paredes que son impermeables al �ujo de calor como adiabáticas,
mientras que una pared que permite el �ujo de calor se llama diatérmica. Si la pared no
permite el �ujo del calor ni trabajo se dice que es restrictiva con respecto a la energía. Un
sistema encerrado por una pared restrictiva con respecto a la energía, volumen y los números
de moles se conoce como cerrada. La existencia de estas paredes demuestra que la energía es
macroscópicamente controlable.
En termodinámica estamos interesados en la medición de las diferencias de energía, las
cuales son las que tienen signi�cado físico. Es posible medir la diferencia de energía entre dos
estados si es posible llegar de uno a otro por medio de algún proceso mecánico, si el sistema
está encerrado por una pared impermeable adiabática. Las paredes adiabáticas, tienen la
propiedad de que el trabajo hecho al llevar un sistema encerrado adiabáticamente entre dos
estados, digamos a y b, está determinado totalmente por las propiedades de los estados
inicial y �nal, independientemente de todas las condiciones externas. El trabajo hecho es la
diferencia entre la energía interna de los dos estados, dW = Ua − Ub.
El experimento de Joule demostró que para un sistema encerrado en paredes adia-
báticas impermeables, cualesquiera dos estados de equilibrio termodinámico con el mismo
conjunto de números de moles N1, N2, · · · , Nr pueden unirse por medio de un proceso me-
cánico. Joule descubrió que si dos estados A y B están especi�cados, puede no ser posible
encontrar un proceso mecánico (consistente con una pared adiabática impermeable) que lleve
al sistema de A a B y viceversa, pero que siempre es posible encontrar el proceso que lleve
al sistema de A → B o bien, de B → A. Esto tiene un signi�cado profundo, ya que esta
asimetría entre dos estados dados esta asociada con el concepto de irreversibilidad.
Calor
El �ujo de calor hacia un sistema durante cualquier proceso (a número de moles cons-
tante) es simplemente la diferencia en la energía interna entre los estados iniciales y �nales,
disminuida por el trabajo hecho durante el proceso. Para el trabajo mecánico, cuya expresión
cuantitativa es δWM = −P dV , el trabajo cuasiestático se de�ne por la ecuación,
δQ = dU − δWM Primera ley (1.2)
Un proceso cuasiestático entre dos estados de equilibrio A y B es aquél en el que se cambian
las condiciones del sistema lentamente que éste tiene tiempo de ajustarse a si mismo gra-
dualmente a las condiciones nuevas (estado de equilibrio). Por ejemplo, se puede efectuar un
expansión reversible de un gas encerrándolo en un contenedor con un pistón móvil y movién-
do el pistón lentamente como se muestra en la �gura 1.1. Si movemos el pistón rápidamente,
se generarán corrientes en la masa gaseosa en expansión y los estados intermedios no serán
de equilibrio. Nótese que en la ecuación 1.2 se ha usado una δ para indicar una diferencial
imperfecta o inexacta.
Figura 1.1: Expansión de un gas usando un pistón.
1.2.3. El postulado de máxima entropía
Postulado II: Existe una función (llamada entropía) de los parámetros exten-
sivos de cualquier sistema [cerrado] compuesto, de�nida para todos los estados
de equilibrio y que tiene la siguiente propiedad: Los valores asumidos por los
parámetros extensivos en ausencia de una restricción externa son aquéllos que
maximizan la entropía sobre la variedad de los estados de equilibrio restringidos.
S = S(U, V,Ni) relación fundamental. (1.3)
Postulado III: La entropía de un sistema compuesto es aditiva sobre los sub-
sistemas constituyentes. La entropía es continua y diferenciable y es una función
monótona creciente con la energía.
Así la entropía total de un sistema compuesto es,
S =
∑
α
Sα, (1.4)
es decir, la entropía es extensiva. Es lineal,
S(λU, λV, λNi) = λS(U, V,Ni),
(
∂S
∂U
)
V,Ni
> 0. (1.5)
La condición de diferenciabilidad requiere la existencia de la primer derivada parcial
(∂S/∂X) con respecto a cada uno de los parámetros extensivos X de los que la entropía
depende. Se mostrará más tarde que la estabilidad termodinámica también requiere que
(∂2S/∂X2 ≤ 0) para cada X. La segunda frase en el postulado implica que U es una función
bien comportada de S, V y N1, · · · , Nr. Este postulado sugiere que la función entropía puede
ser invertida con la energía de tal forma que la función S = S(U, V,Ni) puede resolverse
unívocamente para U = U(S, V,Ni). Estas ecuaciones son formas alternativas de la relación
fundamental.
Postulado IV: La entropía de cualquier sistema [es no negativa] y se hace cero
en el estado para el que (∂U/∂S)V,N1,··· ,Nr = 0 (esto es, a temperatura cero).
Esto es una reexpresión de la tercera ley o postulado de Nernst.
1.2.4. Parámetros intensivos
Consideremos la ecuación U = U(S, V,Ni) y calculemos la primera diferencial,
dU =
(
∂U
∂S
)
V,N1,···
dS +
(
∂U
∂V
)
S,N1,···
dV +
∑
r
(
∂U
∂Nr
)
V,Nk
dNr. (1.6)
Las derivadas parciales son los parámetros intensivos y la siguiente notación es usada con-
vencionalmente, (
∂U
∂S
)
V,N1,···
= T temperatura
−
(
∂U
∂V
)
S,N1,···
= P presión
(
∂U
∂Nr
)
V,Nk
= µr potencial químico
Reescribiendo,
dU = TdS − PdV +
∑
r
µrdNr. (1.7)
En el caso de número de moles constantes, encontramos que,
δQ = TdS. (1.8)
Es decir, un �ujo cuasi-estático de calor hacia el sistema resulta en un incremento de
la entropía. La temperatura, presión y potenciales químicos son funciones implícitas de los
parámetros extensivos (ya que son derivadasde una función de los parámetros extensivos).
Con esto obtenemos,
T = T (S, V,Nr), P = P (S, V,Nr), etc. (1.9)
Tales expresiones que relacionan los parámetros intensivos con los parámetros extensivos
independientes se llaman ecuaciones de estado. Todo el análisis previo, al efectuarse con
S = S(U, V,Nr) resulta en un conjunto diferente de parámetros intensivos (llamados los
parámetros intensivos entrópicos):
Fk ≡
∂S
∂Xk
, F0 =
1
T
Fk =
−Pk
T
. (1.10)
1.2.5. Equilibrio térmico y temperatura
Considere un sistema cerrado compuesto que consiste de dos sistemas simples separados
por una pared que es rígida e impermeable a la materia pero que permite el �ujo de calor.
Los volúmenes de los sistemas están �jos pero las energías U1 y U2 son libres de variar, pero
sujetas a la restricción,
U1 + U2 = constante. (1.11)
En el equilibrio, dS = 0 y
dS =
(
dS1
dU1
)
V,N
dU1 +
(
dS2
dU2
)
V,N
dU2, (1.12)
o bien,
dS =
1
T 1
dU1 +
1
T 2
dU2. (1.13)
Pero dU1 = −dU2, es decir,
dS =
(
1
T 1
− 1
T 2
)
dU1 = 0, (1.14)
las temperaturas son iguales T 1 = T 2. El análisis puede extenderse para mostrar que el calor
�uye de regiones de alta temperatura a regiones de baja temperatura.
Clase 2
Introducción a la física estadística
La física estadística surge de la necesidad de reconocer que los sistemas físicos macro-
cópicos en general están constituidos por partículas pequeñísimas (cuánticas) en números
formidablemente grandes. Esta tarea, en apariencia simple, no es fácil y ni siquiera está com-
pleta hoy en día. En efecto, no sabemos aún cómo es posible que las ecuaciones de movimiento
(todas: clásicas y cuánticas) sean simétricas ante un cambio de signo en el tiempo (reversibles
o simetría de Kramer) y el mundo microscópico sea irreversible.
Muchas grandes mentes han aventurado respuestas, como Einstein, Gell-Mann, Feynman,
etc, quienes han sugerido que esto tiene que ver con: propiedades de los grandes números,
pérdida de información en colisiones instantáneas, improbabilidades de todo tipo. Sin embar-
go, la pregunta sigue en el aire. Afortudamente en el mundo microscópico, se necesita muy
poco para de�nir un sistema, no necesitamos las 6N ∼ 1024 coordenadas para decir cómo
éste comporta. Para conocer un sistema físico hay que medirlo, pero entonces las escalas de
medida cuentan. Las medidas macroscópicas son insensibles al movimiento y al cambio de
las coordenadas microscópicas tanto en el espacio como en el tiempo, (que son del orden de
T ∼ 10−15 seg, L ∼ 1 = 10−10m).
CLAVE medida
proceso estocastico
pocas coordenadas
CLAVE medida
proceso estocastico
pocas coordenadas
2.1. La ecuación de Euler
Podemos tomar ventaja de que la ecuación fundamental es de primer orden y homogénea,
15
U(λS, λX1, · · · , λXk) = λU(S,X1, · · · , Xk) (2.1)
y diferenciable con respecto a λ,
∂U
∂(λS)
∂(λS)
∂λ
+
r∑
j=1
∂U
∂(λXj)
∂(λXj)
∂λ
= U(S,Xi, · · · , Xr) (2.2)
que es válida para cualquier valor de λ en particular λ = 1, entonces,
∂U
∂S
S +
r∑
j=1
∂U
∂Xj
= U
∂U
∂Xj
= Pj (2.3)
es decir,
U = TS +
r∑
j=1
PjXj ecuación de Euler (2.4)
en un sistema simple,
U = TS − PV +
r∑
i=1
µiNi. (2.5)
2.2. La relación de Gibbs-Duhem
Nuevamente aprovechamos las propiedades de las funciones de primer orden, si λ = 1
Nr
,
U
(
S
Nr
,
V
Nr
,
N1
Nr
, · · · , Nr
Nr
)
=
U
Nr
(S, V,N1, · · · , Nr︸ ︷︷ ︸
Nr + 2 variables
) (2.6)
U(S, V,N1, · · · , Nr) = NrU
 SNr , VNr , N1Nr , · · · , 1︸ ︷︷ ︸
Nr + 1 variables
 (2.7)
U(S, V,N) = Nu(s, v, 1) = Nu(s, v), con s =
S
N
, v =
V
N
(2.8)
esto quiere decir que en realidad hay r + 2 parámetros extesivos y hay r + 2 ecuaciones de
estado, pero como λ = 1
Nr
,
µr = µr(s, v, n1, · · · , nr, 1) (2.9)
las r+ 2 ecuaciones de estado son función de r+ 1 variables, por lo tanto, existe una relación
entre los parámetros intensivos. De la relación de Euler, diferenciando,
dU = TdS + SdT − PdV − V dP +
r∑
j=1
(µjdNj = Njdµj), (2.10)
pero sabemos que,
dU = TdS = PdV +
r∑
j=1
µrdNr (2.11)
de aquí,
0 = SdT − V dP +
r∑
j=1
Njdµj, (2.12)
la cual es la relación de Gibbs-Duhem. Si sólo hay una sustancia química,
dµ = −sdT + vdP, (2.13)
un sistema de r componentes tiene r + 1 grados de libertad termodinámicos.
La ecuación de Gibbs-Duhem, muestra que tres variables intensivas no son independientes,
si conocemos dos de ellas, el valor de la tercer puede determinarse usando la ecuación 2.12.
2.3. El principio de mínima energía
El principio de máxima entropía caracteriza el estado de equilibrio de cualquier parámetro
(no restringido extensivo) como el que tiene la máxima entropía para una energía total dada.
De forma similar, el principio de mínima energía caracteriza el estado de equilibrio como el
que tiene la mínima energía para una entropía total dada.
Recordemos que la segunda ley de la termodinámica indica que existe una función S de
la energía del sistema S(U, V,N) que es una función creciente monótona de la energía interna
U . Esta función alcanza un extremo (máximo) en el equilibrio. Si usamos
dS =
1
T
dU +
P
T
dV − µ
N
dN (2.14)
como la relacion fundamental, vemos que dS = 0 para la energía interna constante una vez
que el sistema alcanza el equilibrio.
Consideremos la �gura 2.3 del lado izquierdo, para U constante, el equilibrio se alcanza
cuando S es máxima con respecto a la variable Xj. Si comenzamos con un sistema para el
cual la variable Xj no tiene el valor que corresponde al equilibrio, el sistema restrigido a estar
a un valor constante de U evolucionará y S aumentará y Xj variará durante este proceso. El
proceso se detiene cuando S alcanza un máximo:(
dS
dXj
)
U
= 0, Equilibrio. (2.15)
Cerca del punto de equilibrio, tendremos,
(
∂2S
∂X2
)
U
< 0. (2.16)
Figura 2.1: Entropía y energía.
Otra manera de visualizar esto es tomando la relación fundamental dU = TdS − PdV +
µdN . En este caso restringimos al sistema a tener una entropía constante. Esto se represenda
en la �gura 2.3 del lado derecho. A entropía constante, el equilibrio se alcanza cuando U
tiene un mínimo con respecto a otras variables (no restringidas) Xj. Entonces el sistema
evolucionará hacia la minimización de la energía, ajustando Xj.
2.4. Transformaciones de Legendre
El arte de los cálculos termodinámicos se basa principalmente en la elección de la formu-
lación teórica particular que haga el problema simple.
Ya que los parámetros intensivos se miden y controlan más fácilmente que los paráme-
tros extensivos, se puede pensar en los pámetros intensivos como variables independientes y
los parámetros extensivos como las cantidades derivadas. Una desventaja de usar U(S, V,N)
como un potencial termodinámico es que la variable natural S es muy difícil de controlar en
el laboratorio. Para propósitos prácticos es más fácil trabajar con otros potenciales termo-
dinámicos que pueden de�nirse haciendo uso de la transformada de Legendre. Esto lleva a
reformular a la termodinámica en otras representaciones, además de la entropía y la energía.
Considere una función, Y = Y (X0, X1, · · · , Xt) = Y (X), que representa una curva en el
espacio X, Y , donde
P ≡ ∂Y
∂X
(2.17)
es la pendiente de la curva, véase la �gura 2.6.
La idea es escribir a P como variable, i.e. Y = Y (P ), sin embargo, es claro que la
descripción de Y a través de la pendiente ∂Y
∂X
no permite reconstruir la ecuación fundamental,
ya que Y = Y (P ) es una ecuación diferencial de primer orden y la integración resulta en
Y = Y (X) conocida hasta una constante de integración, por lo tanto, se pierde información.
La solución del problema está en que una curva dada puede ser representada por:
1. Una familia de líneas tangentes, descrita por dos números Y = PX + Ψ.
2. El locus de puntos que satisfagan Y = Y (X), de igual manera descrito por dos números.
Tomando a la familia de líneas tangentes, Y = Y (P ), seleccionamos las variables (P,Ψ), tal
que,
Ψ = Ψ(P )→ Y = Y (X),
donde Ψ es la transformada de Legendre de Y . Debemos entonces conocer las intersecciones
para todas lastangentes, hágase referencia a la �gura 2.4, donde la pendiente,
P =
Y −Ψ
X − 0
→ Ψ = Y − PX, (2.18)
como Y = Y (x) y P = P (X),
Ψ = Y (X)− P (X)X (2.19)
La ecuación 2.19 es la de�nición de transformada de Legendre de Y (X). Nótese que hemos
eliminado X y Y , lo cual es posible si P depende de X, es decir,
d2Y
dX2
6= 0 (estabilidad). (2.20)
2.5. Transformada inversa de Legendre
Diferenciando la ecuación 2.19, obtenemos la expresión,
dΨ = −PdX −XdP + dY = −XdP, (2.21)
es decir,
−X = dΨ
dP
(2.22)
ahora se eliminan Ψ y P para dar Y (X) = Y .
Y = Y (X) Ψ = Ψ(P )
P = dY
dX
−X = dΨ
dP
Eliminar X y Y Eliminar P y Ψ
Ψ = Ψ(P ) Y = Y (X)
2.5.1. Generalización a más variables
Partiendo de Y = Y (X0, X1, X2, · · ·Xj),
PJ =
∂Y
∂Xj
(2.23)
Ψ = Y −
r∑
j=1
PjXj (2.24)
dΨ = −
r∑
j=1
XjdPj → −Xj =
∂Ψ
dPj
(2.25)
Ejemplo: La lagrangiana
L = L(q1, q2, · · · , qn, v1, v2, · · · , vn) (2.26)
el momento se puede de�nir como Pk = ∂L∂vk , si se desea trabajar con los momentos en vez de
las velocidades se toma la transformación parcial con respecto a las velocidades, entonces se
de�ne la transformada (primera cantidad de Jacobi) como,
−H = L−
n∑
k=1
Pkvk (2.27)
y entonces H = H(P1, P2, ·, Pn, q1, q2, · · · , qn) y ∂H∂Pk = vk.
2.6. Potenciales termodinámicos
Los potenciales termodinámicos son funciones de estado que junto con las correspondien-
tes ecuaciones de estado, describen el comportamiento en el equilibrio de un sistema como
función de las llamadas �variables naturales�, las cuales son el conjunto de variables apropia-
das que permiten calcular otras funciones de estado por medio de la diferenciación parcial de
los potenciales termodinámicos.
Un potencial termodinámico para un sistema con un número de partículas variable debe
depender de µ,N así como de una variable térmica [S(extensiva) o T(intensiva)] y una variable
mecánica [V(extensiva) o P(intensiva)].
Existen cuatro posibles combinaciones de estas variables,
2.6.1. Energía libre de Helmholtz
Partiendo de U = U(S, V,N), si reemplazamos la variable independiente S por T . De�-
nimos la energía libre F = U [T ] = F (T, V,N):
F = U − S
(
∂U
∂S
)
V,N
= U − TSF = F (T, V,N) Energía libre
En la expresión,
dF = dU − d(TS) = dU − SdT − TdS
sustituimos dU y obtenemos,
dF = −SdT − PdV +
r∑
j=1
µjdNj. (2.28)
Las variables naturales de la energía libre son T, V,N . Las variables dependientes se
obtienen a partir de las primeras derivadas,
−S =
(
∂F
∂T
)
V,N
P = −
(
∂F
∂V
)
T
las cuales son las ecuaciones de estado.
2.6.2. Entalpía
La entalpía H = H(S, P,N), se obtiene cuando sustituimos la variable V por P en
U(S, V,N):
H = U + PV
La diferencial total de H,
H = U − V
(
∂U
∂V
)
S,N︸ ︷︷ ︸
-P
(2.29)
dH = dU + d(PV ) = dU + V dP + PdV = TdS − PdV +
r∑
j1
µrdNr + V dP + PdV
dH = TdS + V dP +
r∑
j1
µrdNr. (2.30)
Las variables naturales de la entalpía son S, P,N . A partir de las primeras derivadas
obtenemos,
T =
(
∂H
∂S
)
P,N
V =
(
∂H
∂P
)
S,N
(2.31)
2.6.3. La función de Gibbs
Obtenemos esta función si reemplazamos S por T y V por P ,
G = G(T, P,N) (2.32)
G = U − S
(
∂U
∂S
)
V,N
− V
(
∂U
∂V
)
S,N
G = U − TS + PV. (2.33)
T = ∂U
∂S
−S = ∂G
∂T
G = U − TS + PV
−P = ∂U
∂V
V = ∂G
∂P
U = G+ TS − PV
La diferencial total,
dG = SdT + V dP +
∑
k
µkNk. (2.34)
A partir de las primeras derivadas de G, obtenemos,
S = −
(
∂G
∂T
)
P,N
V =
(
∂G
∂P
)
T,N
(2.35)
La funciones de Massieu son las posibles transformadas de Legendre de la entropía así como
los potenciales termodinámicos son de la energía.
2.7. Relaciones de Maxwell
Estas relaciones conectan dos derivadas de variables termodinámicas y emergen debido a
la equivalencia de las segundas derivadas del potencial bajo un cambio de orden de operación,
i.e.,
∂2F
∂X∂Y
=
∂2F
∂Y ∂X
,
donde F es un potencial termodinámico y X y Y son dos de sus variables naturales indepen-
dientes.
Si consideramos las segundas derivadas,
∂2U
∂S∂V
=
∂2U
∂V ∂S
∂
∂S
(
∂U
∂V
)
S,N
= −
(
∂P
∂S
)
V,N
=
(
∂T
∂V
)
S,N
= ∂
∂V
(
∂U
∂S
)
V,N
donde el texto realzado en rojo corresponde a la relación de Maxwell.
Para un sistema simple, hay tres relaciones de Maxwell con respecto a U . Existen 6
transformadas parciales de Legendre→ 21 relaciones de Maxwell. Se puede identi�car dichas
relaciones usando el siguiente cuadro termodinámico:
dU = TdS − PdV
dF = −SdT − PdV
dH = TdS + V dP
dG = V dP − SdT
etc.
P G T
H F
S U V
2.7.1. Aplicaciones
Las relaciones de Maxwell son importantes porque muestran que las derivadas de los pará-
metros termodinámicos no son completamente independientes. Además proveen un método
para expresar derivadas que involucran cantidades difíciles de medir con aquéllas que son
fácilmente medibles en un experimento.
Por ejemplo, ¾cómo mediríamos la entropía o el potencial químico en el laboratorio? Es-
tas cantidades no son accesibles directamente de forma experimental. Lo que podemos medir
típicamente son cantidades mecánicas como la presión, volumen, densidad y propiedades tér-
micas como la temperatura y el �ujo de calor (vía cambios de temperatura). Sin embargo,
existen algunas propiedades materiales fácilmente medibles que dependen de las derivadas
de las variables termodinámicas. Debido a que estas cantidades miden el cambio en un pará-
metro del sistema en respuesta a una perturbación in�nitesimal, se conocen como funciones
respuesta:
1. Calor especí�co a volumen constante:
CV ≡
(
∂U
∂T
)
V,N
= T
(
∂S
∂T
)
V,N
(2.36)
2. Calor especí�co a presión constante:
CP ≡
(
∂H
∂T
)
P,N
= T
(
∂S
∂T
)
P,N
(2.37)
3. Expansión térmica,
αP =
1
V
(
∂V
∂T
)
P,N
(2.38)
4. Compresibilidad isotérmica,
κT = −
1
V
(
∂V
∂P
)
T,N
(2.39)
Estas funciones respuesta se de�nen de tal forma que sean positivas para los sistemas
�normales�, tales como los gases ideales y los líquidos simples. Sin embargo, en ocasiones
hay excepciones como el caso de la expansión térmica del agua debajo de los 4oC, la cual es
negativa.
Por lo tanto, las relaciones de Maxwell nos permiten expresar cantidades inaccesibles expe-
rimentalmente en terminos de cantidades medibles, como por ejemplo,
(
∂S
∂P
)
T,N
= −
(
∂V
∂T
)
P,N
.
Clase 3
Revisión de Mecánica Cuántica
3.1. Proceso de medición
La teoría cuántica, basada en la ecuación de Schrödinger no puede describir el proceso
una medición. La evolución de la función de onda descrita por la ecuación de Schrödinger
tiene dos características fundamentales: es un proceso �reversibe�, de tal forma que siempre
se puede deshacer el proceso y regresar al estado inicial desde el estado �nal, y tiene una
evolución �determinista� en el que el estado �nal esta determinado únicamente por los estados
iniciales si el Hamiltoniano que describe al sistema es conocido. Por otro lado, el proceso de
medición es �irreversibe� y �no determinista�. Una vez que se efectúa la medición y se extrae
la información, es imposible regresar al estado inicial. Antes de que la medición se complete,
no se puede predecir cuál será el resultado de la medición y cual será el estado posterior a la
medición del sistema.
3.1.1. Ecuación de eigenvalores
Sea Ô un operador que opera sobre funciones de la variable x. Denotamos las eigen-
funciones del operador Ô con sj(x) o colectivamente con {sj(x)}, con j = 1, 2, 3, · · · y a
los eigenvalores con λj, o de manera colectiva como {λj}. Si conocemos Ô, por de�nición
obtenemos las eigenfunciones y eigenvalores (sj(x), λj) de Ô resolviendo la ecuación,
Ôs(x) = λs(x). (3.1)
En notación de Dirac, un vector de estado |ψ〉 es un eigenvector (eigenket o eigenestado)
de un operador Ô si la aplicación de Ô a |ψ〉 da,
Ô|ψ〉 = λ|ψ〉, (3.2)
donde λ es un número complejo. La ecuación 3.2 es conocida como la ecuación de eigenvalores
o problema de eigenvalores del operador Ô. Su solución da los eigenvalores y eigenvectores
de Ô. Para sistemas físicos, λ es real y el operador Ô tiene la propiedad de ser hermitiano,
(ÔT) = Ô = Ô†. (3.3)
27
El problema centralen mecánica cuántica es la determinación de la función de onda
Ψ(r, t) que en general es una función de la posición y del tiempo, para cualquier sistema de
interés. En algunos problemas, podemos enfocarnos en la solución del problema en términos
de la parte independiente del tiempo de Ψ(r, t), que se denota con ψ(r). El estado particular
descrito por ψ(r) se conoce como estado estacionario.
Para un sistema físico, las condiciones a la frontera del mismo son su�cientes para de-
terminar la función de onda y sus eigenvalores asociados. Para hamiltoniano de la forma
H = T + V , la ecuación de Schrödinger, resulta en,
H|Ψn〉 = En|Ψn〉, o bien (H − E)|Ψn〉 = 0. (3.4)
La solución de este problema resulta en,
|H − E|G = 1. (3.5)
donde G es la función de Green del problema y H es un operador hermitiano,
(Ψ∗H∗)T = EnΨ
∗T (3.6)
〈Ψn′ |HT = 〈Ψn′ |H = 〈φn|En′ (3.7)
〈Ψn′|H|Ψn〉 = En′〈Ψn′ |Ψn〉, (3.8)
si el vector de estado está normalizado 〈Ψn′|Ψn〉 = δnn′ y cumple con la condición de cerradura∑
n |Ψn〉〈Ψn| = 1, obtenemos,
En = 〈Ψn|H|Ψn〉, (3.9)
el valor esperado. Las observables macrocópicas y sus eigenestados asociados forman un
conjunto completo.
3.1.2. Observables conmutables
Supongamos que Â|an〉 = an|an〉 y B̂|bn〉 = bn|bn〉, entonces,
B̂(Â|an〉) = anB̂|an〉 = anbn|an〉, (3.10a)
Â(B̂|bn〉) = bnÂ|an〉 = anbn|an〉, (3.10b)
a partir de las dos ecuaciones anteriores obtenemos,
(B̂Â− ÂB̂)|an〉 = 0, (3.11a)
[A,B] = 0. (3.11b)
Como caso particular, si B̂ = Ĥ y encontramos los operadores  que cumplen con la
expresión (3.11b), entonces tenemos la máxima información del sistema o las constantes de
movimiento.
3.2. Postulados de la mecánica cuántica
Estos postulados nos permiten entender las siguientes preguntas:
Cómo se describe matemáticamente un estado cuántico a un tiempo dado t.
Cómo calcular las cantidades físicas a partir de estos estados cuánticos.
Conociendo el estado del sistema a un tiempo t, cómo encontrar su estado a cualquier
tiempo posterior t′, i.e., cómo describir la evolución temporal del sistema.
Postulado 1: El estado de un sistema
El estado de cualquier sistema físico se especifíca a cada t por un vector de estado |ψ(t)〉
en un espacio de Hilbert (véase más abajo). |ψ(t)〉 contiene toda la información sobre el
sistema. Cualquier superposición de vectores de estado también es un vector de estado.
Postulado 2: Observables y operadores
A cada cantidad física medible O, conocida como observable o variable dinámica, le co-
rresponde un operador lineal hermitiano Ô cuyos eigenvectores forman una base completa.
Postulado 3: Mediciones y eigenvalores de los operadores
La medición de la observable O es la acción de Ô sobre |ψ(t)〉. El resultado de la medición
es un eigenvalor λn de Ô. El estado del sistema inmediatamente después de la medición es la
proyección de |ψ(t)〉 sobre el eigenvector |ψn〉 asociado a λn:
|ψ(t)〉después = |ψn〉〈ψn|ψ(t)〉. (3.12)
Postulado 4: Resultados probabilistas de las mediciones
• Espectro discreto: Cuando se mide la observable O de un sistema en el estado |ψ〉, la
probabilidad de obtener un eigenvalor no degenerado λn de Ô es,
Pn(λn) =
|〈ψn|ψ〉|2
〈ψ|ψ〉
. (3.13)
Postulado 5: La evolución temporal de un sistema
La evolución temporal de un vector de estado |ψ(t)〉 de un sistema esta gobernado por la
ecuación de Schrödinger dependiente del tiempo,
i~
∂|ψ(t)〉
∂t
= Ĥ|ψ(t)〉, (3.14)
donde Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema.
3.2.1. Espacios de Hilbert
Un espacio de Hilbert tiene la propiedad de ser un espacio completo lineal con un producto
escalar de�nido. Este espacio es el de funciones cuadráticamente integrables.
Propiedades del producto escalar
(ψ, φ) = (φ, ψ)∗
El producto escalar es lineal en φ y antilineal en Ψ,
(ψ, λ1φ+ λ2φ2) = λ1(ψ, φ1) + λ2(ψ, φ2)
(λ1ψ + λ2ψ2, φ) = λ
∗
1(ψ1, φ) + λ
∗
2(ψ2, φ)
La norma (Ψ,Ψ) ≥ 0.
A partir de estas propiedades se in�ere la desigualdad de Schwartz,
|(ψ, φ)|2 ≤ (ψ, ψ)(φ, φ). (3.15)
3.2.2. Transformaciones unitarias
Cuando un operador unitario Û es aplicado a los vectores de estado y los operadores,
éstos se transforman de la siguiente manera,
|ψ′〉 = Û |ψ〉, 〈ψ′| = 〈ψ|Û †, Ô′ = ÛÔÛ †, (3.16)
|ψ〉 = Û †|ψ′〉, 〈ψ| = 〈ψ′|Û , Ô = Û †Ô′Û . (3.17)
Propiedades
Si un operador Ô es hermitiano, su operador transformado, también es hermitiano,
Ô′
†
= (ÛÔÛ †)† = ÛÔ†Û † ≡ ÛÔÛ † = Ô′ (3.18)
Los eigenvalores de Ô y Ô′ son los mismos.
Un transformación unitaria no cambia la física del sistema estudiado, únicamente trans-
forma de una descripción a otra, físicamente equivalente. Y veremos su utilidad más
adelante al hablar sobre los diferentes marcos de descripción de la Mecánica Cuántica.
3.2.3. Transformaciones unitarias in�nitesimales
Consideremos un operador unitario Û que depende de un parámetro ini�tesimalmente
pequeño � que varía ligeramente del operador unitario Î,
Û�(Ĝ) = Î + i�Ĝ, (3.19)
donde Ĝ se conoce como el generador de la transformación in�nitesimal. Podemos ver que
Û� es un transformación unitaria sólo si � es real y Ĝ es hermitiano,
Û�Û
†
� = (Î + i�Ĝ)(Î − i�Ĝ†) ≈ Î + i�(Ĝ− Ĝ†) (3.20)
donde hemos despreciado términos cuadráticos en �.
La transformación de los vectores de estado |s〉 es,
|ψ′〉 = (Î + i�Ĝ)|ψ〉 = |ψ〉+ δ|ψ〉, (3.21)
donde δ|ψ〉 = i�Ĝ.
La transformación de un operador Ô está dada por,
Ô′ = (Î + i�Ĝ)(Î − i�Ĝ) ≈ Ô + i�[Ĝ, Ô]. (3.22)
Si Ĝ conmuta con Ô, la transformación unitaria no cambiará Ô, es decir, Ô′ = Ô:
[Ĝ, Ô] = 0,→ Ô′ = (Î + i�Ĝ)Ô(Î − i�Ĝ) = Ô. (3.23)
3.2.4. Transformaciones unitarias �nitas
Podemos construir una transformación unitaria �nita a partir de la ecuación 3.19 efec-
tuando una sucesión de transformaciones in�nitesimales en pasos de �; la aplicación de un
serie de transformaciones unitarias sucesivas es equivalente a la aplicación de una transforma-
ción unitaria única. Sea � = α/N , donde N es un entero y α es un parámetro �nito, podemos
aplicar la misma transformación N veces y en el límite N → +∞ obtenemos,
Ûα(Ĝ) = ĺım
N→∞
N∏
k=1
(
1 + i
α
N
Ĝ
)
= ĺım
N→∞
(
1 + i
α
N
Ĝ
)N
= eiαĜ, (3.24)
donde Ĝ es el generador de la transformación �nita y α es un parámetro.
El operador Û es unitario, sólo cuando el parámetro α es real y Ĝ es es hermitiano, i. e.,
(
eiαĜ
)†
= e−iαĜ =
(
eiαĜ
)−1
. (3.25)
3.3. Esquemas de la Mecánica Cuántica
Existen muchas representaciones de las funciones de onda y operadores en mecánica cuán-
tica. La conexión entre estas representaciones se hace en términos de las transformaciones
unitarias que repasamos en la sección anterior. Cada clase de representación di�ere de las
otras en términos de cómo se trata la evolución temporal del sistema. Los esquemas frecuen-
temente usandos en mecánica cuantica son los siguientes:
3.3.1. Esquema de Schrödinger
Es útil cuando se describen fenónomenos con Hamiltonianos independientes del tiempo.
En este marco los vectores de estado dependen explícitamente del tiempo, pero los operadores
no,
i~
d
dt
|ψ(t)〉 = Ĥ|ψ(t)〉 (3.26)
donde |ψ(t)〉 denota el estado del sistema en este esquema. La evolución temporal de un
estado |ψ(t)〉 puede expresarse en términos del propagador de evolución temporal, (̂U)(t, t0)
de la siguiente manera,
|ψ(t)〉 = (̂U)(t, t0)|ψ(t0)〉, (3.27)
con (̂U)(t, t0) = ei(t−t0)Ĥ/~.
3.3.2. Esquema de Heisenberg
Su utilidad surge para sistemas cuyos Hamiltonianos tienen una dependencia temporal
explícita en el tiempo. La dependencia temporal de los vectores de estado está completamente
congelada. Este esquema se obtiene a partir del esquema de Schrödinger aplicando Û sobre
|ψ(t)〉,
|ψ(t)〉H = Û †(t)|ψ(t)〉 = |ψ(0)〉. (3.28)
Podemos reescribir Û † = Û †(t, t0 = 0) = e
itĤ
~ y |ψ(t)〉 = Û(t)|ψ(0)〉, Û(t) = e itĤ~ . Entonces
podemos reescribir la ecuación 3.28 como,
|ψ(t)〉H = e
itĤ
~ |ψ(t)〉. (3.29)
Un cálculo sencillo nos permite obtener el valor de expectación del operador  en el estado
|ψ(t)〉 que evoluciona en el tiempo, considerando qued|ψ(t)〉H/dt = 0:
〈ψ(t)|Â|ψ(t)〉 =〉ψ(0)|e
itĤ
~ Âe
−itĤ
~ |ψ(0)〉 =〉ψ(0)|ÂH(t)|ψ(0)〉 = 〈ψ|ÂH(t)|ψ〉H . (3.30)
donde,
ÂH(t) = Û
†(t)ÂÛ(t) = e
itĤ
~ Âe
−itĤ
~ . (3.31)
Es decir, el valor de expectación de un operador es el mismo en el marco de Schrödinger
y Heisenberg.
3.3.3. Esquema de Dirac
El marco de interacción o esquema de Dirac, es útil para describir fenómenos cuánticos
con Hamiltonianos que dependen explícitamente del tiempo y además podemos separar de la
siguiente manera Ĥ = Ĥ0 + V̂ , donde Ĥ0 es independiente del tiempo y V̂ puede depender
del tiempo. Aquí ambos, vectores de estado y operadores evolucionan en el tiempo, por lo
tanto es necesario encontrar las ecuaciones de movimiento de los vectores de estado y los
operadores.
Los vectores de estado se de�nen como,
|ψ(t)〉I = eiĤ0t/~|ψ(t)〉, (3.32)
y su evolución temporal está dada por la ecuación,
i~
d|ψ(t)〉I
dt
= V̂I(t)|ψ(t)〉I , (3.33)
con,
V̂I(t) = e
iĤ0t/~V̂ e−iĤ0t/~. (3.34)
Se puede ver que esta es la ecuación de Schrödinger en el esquema de interacción y muestra
que la evolución temporal del vector de estado está gobernada por la interacción V̂I .
La representación de interacción para un operador ÂI está dada por la ecuación 3.34.
Calculando la derivada temporal de ÂI y considerando ∂Â∂t = 0, se puede demostrar que la
evolucion de ÂI esta gobernada únicamente por Ĥ0,
dÂI
dt
=
1
i~
[
ÂI , Ĥ0
]
. (3.35)
3.4. La hipótesis cuántica: posición y momento
Recordemos que q y p conmutan en mecánica clásica (paréntisis de Poisson). Suponga
que son variables cuantizadas, esto es, veremos a las variables clásicas como operadores, lo
primero en cuántica es calcular [q, p].
Antes de describir la evolución de una variable dinámica dentro del contexto de la mecá-
nica clásica y hacer generalización a la mecánica cuántica, conviene hacer un repaso de los
paréntesis de Poisson.
3.4.1. Paréntesis de Poisson
El paréntesis de Poisson de dos variables dinámicas u y v se de�ne en términos de las
coordenadas generalizadas qi y los momentos pi del sistema,
{u, v} =
∑
j
(
∂u
∂qj
∂v
∂pj
− ∂u
∂pj
∂v
∂qj
)
. (3.36)
Como las variables qi son independientes de pi, tenemos,
∂qj
∂pk
= 0,
∂pj
∂qk
= 0, (3.37)
entonces podemos mostrar que,
{qj, qk} = {pj, pk} = 0, {qj, pk} = δjk. (3.38)
Usando la ecuación 3.36 podemos inferir fácilmente las siguientes propiedades de los
paréntesis de Poisson:
1. Antisimetría: {A,B} = −{B,A},
2. Linealidad:
{A,αB + βC + γD + · · · } = α{A,B}+ β{A,C}+ γ{A,D}+ · · ·
3. Complejo conjugado: {A,B}∗ = {A∗, B∗}
4. Distributividad:
{A,BC} = {A,B}C +B{A,C}, {AB,C} = A{B,C}+ {A,C}B
5. Identidad de Jacobi,
{A, {B,C}}+ {B, {C,A}}+ {C, {A,B}} = 0. (3.39)
Estas propiedades son similares a las propiedades de los operadores mecánico cuanti-
cos, las cuales expondremos más adelante. Recordemos las ecuaciones de movimiento en la
formulación hamiltoniana [2],
dqi
dt
=
∂H
∂pi
(3.40)
dpi
dt
= −∂H
∂qi
. (3.41)
La evolución de una variable dinámica u = u(q, p, t) es entonces,
du
dt
=
∂u
∂t
+
{
∂u
∂qi
∂qi
∂t
+
∂u
∂pi
∂pi
∂t
}
(3.42)
Sustituyendo las ecuaciones de Hamilton (6.1),
du
dt
=
∂u
∂t
+
{
∂u
∂qi
∂H
∂pi
− ∂u
∂pi
∂H
∂qi
}
. (3.43)
La evolución temporal total de una variable dinámica u está dada por la siguiente ecuación
de movimiento,
du
dt
= {u,H}+ ∂u
∂t
. (3.44)
Donde hemos sustituido la de�nición de paréntesis de Poisson, dada por la ecuación 3.36.
Notemos que si u no depende explícitamente del tiempo, su evolución temporal está dada
simplemtene por du/dt = {u,H}. Si du/dt = 0 ó {u,H} = 0, se dice que u es una constante
de movimiento.
3.4.2. Álgebra de conmutadores
El conmutador de dos operadores  y B̂ está de�nido como,
[Â, B̂] = ÂB̂ − B̂Â, (3.45)
y el anti-conmutador,
{Â, B̂} = ÂB̂ + B̂Â. (3.46)
Dos operadores conmutan si [Â, B̂] = 0. Para los operadores de posición q̂i y momento
p̂j = i~ ddqj ,
[q̂j, p̂j] = i~δij. (3.47)
Hay una analogía entre el álgebra de conmutadores de operadores y el álgebra de los
paréntesis de Poisson de la mecánica clásica. Esta analogía permite ligar a la mecánica clásica
con la mecánica cuántica.
3.4.3. Evolución temporal y valores de expectación
Queremos estudiar en esta sección la dependencia temporal de los valores de expectación
de un operador lineal. Si el estado |ψ(t)〉 está normalizado, el valor de expectación está dado
por,
〈Â〉 = 〈ψ(t)|Â|ψ(t)〉. (3.48)
Si recordamos que la evolución de un vector de estado |ψ(t)〉 de un sistema está gobernado
por la ecuación de Schrödinger dependiente del tiempo,
i~
∂|ψ(t)〉
∂t
= Ĥ|ψ(t)〉, (3.49)
con Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema, podemos
escribir d〈Â〉/dt de la siguiente manera,
d
dt
〈Â〉 = 1
i~
〈[Â, Ĥ]〉+
〈
∂Â
∂t
〉
. (3.50)
Notemos que si la observable  no depende explícitamente del tiempo, el termino ∂Â/∂t
es cero, y la razón de cambio del valor de expectación de  está dado por el conmutador.
Además si la observable A conmuta con el hamiltoniano, la cantidad d〈Â〉/dt es cero, entonces
el valor de expectación 〈Â〉 será constante en el tiempo. Si  es independiente del tiempo y
conmuta con el hamiltoniano, decimos que la observable A es una constante de movimiento,
esto es, el valor de expectación de un operador que no depende del tiempo y conmuta con el
hamiltoniano es una constante en el tiempo:
[Ĥ, Â] = 0→ ∂Â
∂t
= 0,→ 〈Â〉 = constante. (3.51)
Se puede demostrar que la energía, el momento lineal y el momento angular de un sistema
aislado son cantidades consevadas: d〈Ĥ〉/dt = 0, d〈P̂ 〉/dt = 0 y d〈L̂〉/dt = 0. Esto implica que
los valores de expectación de Ĥ, P̂ y L̂ son constantes. Recordemos de la mecánica clásica que
la conservación de la energía, el momento lineal y el momento angular son consecuencias de las
siguientes simetrías, respectivamente, homogeneidad del tiempo, homogeneidad del espacio e
isotropía del espacio. Estas simetrías están asociadas con invariancias en la traslación en el
tiempo, traslación en el espacio y rotaciones espaciales.
Retomemos el esquema de Heisenberg, visto anteriormente. Supongamos que el operador
 no depende explícitamente del tiempo, (i.e., ∂Â/∂t = 0) y ya que Û(t) es un operador
unitario, tenemos de la ecuación 3.31,
dÂH(t)
dt
=
∂Û †(t)
dt
ÂÛ(t) + Û †(t)Â
∂Û(t)
∂t
= − 1
i~
Û †ĤÛÛ †ÂÛ +
1
i~
Û †ÂÛ Û †ĤÛ
Finalmente,
dÂH(t)
dt
=
1
i~
[
ÂH , Û
†ĤÛ
]
. (3.52)
Como los operadores Û(t) y Ĥ conmutan, tehemos Û †(t)ĤÛ(t) = Ĥ, por lo tanto, podemos
reescribir la ecuación anterior como,
dÂH(t)
dt
=
1
i~
[
ÂH , Ĥ
]
. (3.53)
Esta es la ecuación de movimiento de Heisenberg, la cual generalmente es muy difícil de
resolver. Note que la estructura de la ecuación 3.53 es similar a la ecuación clásica 3.44
cuando  no depende explícitamente del tiempo, i. e. dA/dt = {A,H}, donde {A,H} es el
paréntesis de Poisson.
3.5. Relaciones de incertidumbre entre dos operadores
Sean 〈Â〉 y 〈B̂〉 con respecto a un vector de estado normalizado |ψ〉. Esto es, 〈Â〉 = 〈ψ|Â|ψ〉
y 〈B̂〉 = 〈ψ|B̂|ψ〉. Las incertidumbres ∆A y ∆B se de�nen,
∆A =
√
〈Â2〉 − 〈Â〉2, ∆B =
√
〈B̂2〉 − 〈B̂〉2, (3.54)
donde 〈Â2〉 = 〈ψ|Â2|ψ〉 y similarmente para B̂. Supongamos que la acción de los operadores
∆ y ∆B̂,
∆ = Â− 〈Â〉, ∆B̂ = B̂ − 〈B̂〉 (3.55)
sobre cualquier estado |ψ〉 está dado por,
∆Â|ψ〉 = |χ〉, ∆B̂|ψ〉 = |φ〉 (3.56)
La desigualdad de Schwartz para los estados |χ〉 y |φ〉 está dada por,
〈χ|χ〉〈φ|φ〉 ≥ |〈χ|φ〉|2. (3.57)
Como  y B̂ son hermitiano, ∆ y ∆B̂ también son hermitianos, de tal forma que ∆† =
† − 〈Â〉 = ∆ y similarmente para ∆B̂† = ∆B̂. Usando la hermiticidad de ∆ y ∆B̂,
podemos demostrar que,
∆† = ∆Â→ 〈χ|χ〉 = 〈ψ|∆†∆Â|ψ〉 = 〈ψ|(∆Â)2|ψ〉 = 〈(∆Â)2〉 (3.58)
y de manera similar 〈φ|φ〉 = 〈(∆B̂)2〉. Entonces la ecuación 3.57 se convierte en,
〈(∆Â)2〉〈(∆B̂)2〉 ≥ |〈∆Â∆B̂〉|2. (3.59)
El último término puede reescribirse como,
∆Â∆B̂ =
1
2
[∆Â,∆B̂] +
1
2
{∆Â,∆B̂} = 1
2
[Â, B̂] +
1
2
{∆Â,∆B̂}, (3.60)donde hemos usado el hecho de que el conmutador [∆Â,∆B̂] es igual a [Â, B̂]. Como [Â, B̂]
es anti-hermitiano y su valor de expectación es real y además el valor de expectación de un
operador anti-hermitiano es imaginario, el valor de expectación de 〈∆Â∆B̂〉 de la ecuación
3.60 es igual a la suma de un parte real 〈{∆Â,∆B̂}〉 y una parte imaginaria 〈[Â, B̂]〉, entonces,
|〈∆Â∆B̂〉|2 = 1
4
|〈[Â, B̂]〉|2 + 1
4
|〈{∆Â,∆B̂}〉|2. (3.61)
Notemos que el último término es un número positivo y real, por lo tanto podemos inferir,
|〈∆Â∆B̂〉|2 ≥ 1
4
|〈[Â, B̂]〉|2. (3.62)
Comparando las ecuaciones 3.59 y 3.62 concluimos que,
〈(∆Â)2〉〈(∆B̂)2〉 ≥ 1
4
|〈[Â, B̂]〉|2. (3.63)
Usando las ecuaciones 3.55 tenemos 〈(∆Â)2〉 = 〈Â2〉 − 〈Â〉2 y combinando esto con la
ecuación 3.54 obtenemos 〈(∆Â)2〉 = (∆A)2. Finalmente,
∆A∆B ≥ 1
2
|〈[Â, B̂]〉|. (3.64)
Esta relación de incertidumbre es muy importante en mecánica cuántica. Su aplicación a
los operadores de posición y momento conduce a las relaciones de incertidumbre de Heisen-
berg.
3.6. Función de Green
3.6.1. Función de Green en matemáticas
Consideremos una ecuación diferencial inhomogénea, para entender mejor el concepto y
por simplicidad trataremos el caso en una dimensión,
D̂xy(x) = f(x), (3.65)
donde D̂x es un operador diferencial lineal que depende de la variable x.
Supongamos que dicho operador es el del oscilador armónico amortiguado,
D̂x =
d2
dx2
+ γ
d
dx
+ ω2. (3.66)
Cuya solución es de la forma,
y(x) = ycomplemetaria + yparticular, (3.67)
donde ycomplementaria es la solución de la ecuación homogénea D̂xyhomogénea(x) = 0 y yparticular(x)
es cualquier solución especial de la ecuación inhomogénea. Para obtener dicha solución espe-
cial de la ecuación inhomogénea para cualquier inhomogeneidad f(x), necesitamos primero
encontrar la solución a la siguiente ecuación,
D̂xG(x, x
′) = δ(x− x′), (3.68)
la cual de�ne la función de Green G(x, x′) que corresponde al operador D̂x. Una vez que
encontramos G(x, x′) cualquier solución especial puede construirse por medio de,
yparticular(x) =
∫
dx′G(x, x′)f(x′). (3.69)
3.7. Formalismo
3.7.1. Función de Green independiente del tiempo
Una función de Green es la solución de una ecuación diferencial homogénea de la forma,
[z − L(r)]G(r, r′; z) = δ(r − r′), z ∈ C (3.70)
sujeta a ciertas condiciones a la frontera para las dos coordenadas de posición r y r′ sobre
una super�cie S en el dominio Ω de r y r′. Suponemos que z es una variable compleja con
λ ≡ Re{z} y s ≡ Im{z}, L(r) es un operador diferencial lineal, Hermitiano e independiente
del tiempo que posee un conjunto completo de eigenfunciones {ψn(r)}, es decir,
L(r)ψn(r) = λnψ(r). (3.71)
donde {ψn(r)} satisface las mismas condiciones a la frontera que G(r, r′; z)
Recordemos que ψn forma una base ortonormal y completa:∫
n
ψ∗n(r)ψm(r)dr = δnm y
∑
n
ψn(r)ψ
∗
m(r) = δ(r − r′). (3.72)
Donde δ(r − r′) es la función delta de Dirac, que satisface:
δ(r − r′) =
{
0 si (r − r′) 6= a
∞ si (r − r′) = a.
Es importante notar que la función delta de Dirac actuando sobre una función f(r)
satisface la siguiente propiedad,∫
Ω
δ(r − r′)f(r′)dr′ = f(r) para cualquier r′ ⊂ Ω. (3.73)
Trabajar con las funciones de Green se facilita si trabajamos en la notación de Dirac,
donde se de�ne el ket |r〉 como el eigenvector del operador de posición, escribimos,
ψn(r) = 〈r|n〉 (3.74a)
δ(r − r′)L(r) ≡ 〈r|L|r′〉 (3.74b)
G(r, r′; z) ≡ 〈r|G(z)|r′〉 (3.74c)
〈r|r′〉 = δ(r − r′) (3.74d)∫
dr|r〉〈r| = 1 (3.74e)
Usando esta notación, podemos escribir las ecuaciones 3.70, 3.71 y 3.72 como,
(z − L)G(z) = 1 (3.75a)
L|ψn〉 = λn|ψn〉 (3.75b)
〈ψn|ψm〉 ≡ δnm (3.75c)∑
n
|ψn〉〈ψn| = 1 (3.75d)
Usando las ecuaciones anteriores, podemos calcular el elemento de matriz 〈r|, |r′〉 de la ecua-
ción 3.75(a),
〈r|(z − L)G(z)|r′〉 = 〈r|1|r′〉 = 〈r|r′〉 = δ(r − r′) (3.76)
El lado izquierdo esta dado por,
〈r|(z − L)G(z)|r′〉 ≡ 〈r|zG(z)|r′〉 − 〈r|LG(z)|r′〉. (3.77)
Usando la ecuación 3.74(c) podemos reescribir lo anterior como,
〈r|(z − L)G(z)|r′〉 ≡ zG(r, r′; z)− 〈r|LG(z)|r′〉, (3.78)
y considerando además que estamos trabajando sobre una base completa, podemos usar la
ecuación 3.74(e) y obtenemos,
〈r|(z − L)G(z)|r′〉 = zG(r, r′; z)−
∫
ds〈r|L|s〉〈s|G(z)|r′〉 = zG(r, r′; z)− L(r)〈r|G(z)|r′〉.
(3.79)
Usando la ecuación 3.74(c) podemos reescribir toda la ecuación como,
zG(r, r′; z)− L(r)G(r, r′; z) = δ(r − r′). (3.80)
Finalmente, factorizando obtenemos le ecuación 3.70.
El hecho de que podamos expresar la función de Green independiente del tiempo en
notación de Dirac signi�ca que la función de Green de las coordenadas de posición r y r′ está
de�nida en el espación de Hilbert. Esto quiere decir que el espacio L2 es un espacio de Hilbert
y ya no estamos restringidos a trabajar únicamente con la posición, sino que podemos aplicar
una transformada de Fourier de r ⊂ L2 a k ⊂ L2 y trabajar en el espacio de momentos.
Si todos los eigenvalores de z − L son distintos de cero, entonces podemos resolver la
ecuación 3.75(a) como,
G(z) =
1
z − L
. (3.81)
Multiplicando la ecuación 3.81 por la ecuación 3.75(d) obtenemos,
G(z) =
1
z − L
∑
n
|ψn〉〈ψn|. (3.82)
donde 1
z−L es una constante. Usando la ecuación 3.75(b) para sustituir los eigenvalores del
operador L, obtenemos,
G(z) =
∑
n
1
z − L
|ψn〉〈ψn| =
∑
n
|ψn〉〈ψn|
z − λn
, z 6= λn (3.83)
De esta última ecuación podemos ver que G(z) está en función de un numero �nito de
polos que corresponde a los eigenvalores discretos de L. Si queremos de�nir G(r, r′; z) en
z = λ, como G(r, r′; z) tiene un polo en λ, tendremos que de�nir G(r, r′;λ) a través de un
proceso límite.
3.7.2. De�nición
Denotemos con G+ a la función de Green de�nida sobre el plano Im(z) > 0 y G− la
correspondiente en Im(z) < 0. De�nimos G en z = λ como,
G±(r, r′;λ) ≡ ĺım
s→0+
G(r, r′;λ± is), donde z = λ+ is. (3.84)
Teorema
Sea z una variable compleja compuesta de una parte real λ y una parte imaginaria s. Sea
L(r) un operador diferencial lineal, Hermitiano e independiente del tiempo con un conjunto
completo de eigenfunciones ψn, y sea u(r) una función desconocida sobre la que L está
operando. Suponga que f(r) es una función arbitraria inhomogénea que nos da la siguiente
ecuación diferencial,
[z − L(r)]u(r) = f(r) (3.85)
La solución de esta ecuación diferencial u(r) está dada por,
u(r) =
{∫
G(r, r′; z)f(r′)dr′ si z 6= λn∫
G±(r, r′;λ)f(r′)dr′ + ψ(r) si z = λ.
Demostración
Demostraremos únicamente el caso donde z 6= λn. Si u(r) actúa sobre la solución pro-
puesta,
[z − L(r)]u(r) = [z − L(r)]
∫
G(r, r′; z)f(r′)dr′. (3.86)
Como estamos tratando con operadores lineales,
[z − L(r)]u(r) = [z − L(r)]
∫
G(r, r′; z)f(r′)dr′ =
∫
[z − L(r)]G(r, r′; z)f(r′)dr′, (3.87)
y usando la ecuación 3.70,∫
[z − L(r)]G(r, r′; z)f(r′)dr′ =
∫
δ(r − r′)f(r′)dr′ (3.88)
Y usando la ecuación 3.73 obtenemos el resultado deseado.
Corolario
La solución u(r) no existe cuando z coincide con un eigenvalor discreto de L, a menos
que todas las eigenfunciones asociadas con λn sean ortogonales a f(r). Véase [3] para la
demostración.
3.8. Función de Green en Mecánica Cuántica
Para resolver algunos de los problemas a la frontera que surgen en la mecánica cuántica
(por ejemplo en teoría de perturbaciones) se emplea el método de la función de Green. Por
lo tanto la ecuación diferencial a resolver es la ecuación de Schrödinger.
3.8.1. Solución de la ecuación de Schrödinger
La ecuación de Schrödinger,
Hψ = Eψ, (3.89)
puede escribirse de manera equivalente como,
[E −H(r)]ψ(r) = 0, (3.90)
donde H es el operador Hamiltoniano y E denota los eigenvalores de la energía corres-
pondientes. Usando el formalismo presentado anteriormente, resolvemos la ecuación 3.90,
identi�cando,
1. L(r)→ H(r)
2. λ→ E
3. λ+ is = z → z = E + is
4. λn → En
5. ψn(r)→ ψn(r).
Por lo tanto, de�nimos la función de Green de la ecuación de Schrödinger como,
[E −H(r)]G(r, r′;E) = δ(r − r′). (3.91)
Siguiendo el método de la demostración, obtenemos el siguiente resultado,
ψ(r) =
{∫
G(r, r′; z)f(r′)dr′ si z 6= λn∫
G±(r, r′;λ)f(r′)dr′ + ψ(r)si z = λ.
donde,
G(r, r′; z) =
∑
n
ψn(r)ψ
∗(r′)
z − En
(3.92)
y f(r) = 0.
Clase 4
Probabilidad
En termodinámica la cantidad fundamental es la entropía S, que surge como resultado
de todas las coordenadas ignoradas. Se podría decir que es una medida de la ignoracia. La
razón es que la diferencia de escalas de tiempo entre las medidas (mediciones) y los movi-
mientos atómicos es enorme, por lo tanto en un sistema macroscópico de muchas partículas
las mediciones escalares no se enteran de la dinámica atómica y entonces la medida es un
�promedio�. Cada vez que se mide se obtiene un número diferente. ¾Cuál es el mejor número?
el promedio, de�nido según la expresión,
x =
1
N
N∑
i
xi
este número es el primer resultado de la ignorancia. ¾Cuál es la precisión de esta medida?
Barras de error Desviación cuadrática⇒ media
Fluctuaciones no medibles
por lo tanto, no pasa de ser una adivinanza o �concepto estadístico�.
En [4], Henri Poincaré cita a Joseph Bertrand (Calculus of Probabilities): �la probabilidad
es lo opuesto a la certeza, por lo tanto es, resultado de lo que ignoramos y consecuentemente
parecería ser lo que no podemos calcular. Entonces aquí hay, cuando menos, una contradicción
aparante y una sobre la que ya se ha escrito mucho1.�
P =
Ni
NT
Este número es un hecho matemático pero su interpretación puede ser deformada por
el vulgo ⇒ siempre usaremos la de�nición matemática de Poicaré en su interpretación de
cómo está la entropía relacionada con la estadística. Partimos de la ecuación diferencial que
conocemos, el gas ideal monoatómico para N = cte,
1Probability is the opposite of certainty; it is thus what we are ignorant of, and consequently it would seem
to be what we cannot calculate. There is here at least an apparent contradiction, and one on which much has
already been written.
45
S = S0 +NR ln
[(
U
U0
3/2 V
V0
)]
∼ N ln
[(
η
U
N
3/2 V
N
)]
(4.1)
donde se ha renombrado η ≡
(
N
U0
)3/2 (
N
V0
)
y U
N
= (∆p)
2
2m
, V
N
= (∆x)3.
S ∼ ln
[
η
(∆p∆x)3
uw
]
(4.2)
con u ≡ (2m)
3/2
η
y w ≡ (∆x0∆p0)3 es una unidad de volumen en el espacio fase que corresponde
a una partícula. Por lo tanto, podemos reescribir,
S ≈ ln Γ (4.3)
con Γ ≡
(
∆x∆p
w
)3N
.
Este volumen es el que dejan libres las restricciones (constantes de movimiento). Por
ejemplo, una mosca se mueve en un cuarto en 3D, pero y ¾si la mosca no vuela?. Siempre hay
una probabilidad de que la mosca no vuele y es por esto que para seguir adelante debemos
de hablar de la probabilidad y siempre usaremos el concepto matemático. Entonces tenemos
que desarrollar un método para calcular cantidades de la forma,
Pi =
Ni
NT
, (4.4)
donde P representa la probabilidad, Ni la clase y NT la muestra. Este método se llama
estadística. Lo primero que tenemos que hacer es encontrar Ni, esto lo hacemos con la ayuda
de la función,
δ(x− xs) =
{
0 si x′ 6= xs
1 si x′ = xs
si xs es una variable continua, esta función se llama delta de Dirac. Entonces contar signi�ca,
f(x′) =
∑
s
δ(x− xs). (4.5)
Ejemplo: Las clases pueden ser cualquier variable de estado: edades, cali�caciones, llamadas
telefónicas. Sea un conjunto de N variables aleatorias, x1, x2, · · · , xN podemos obtener su
función distribución de probabilidad, por ejemplo la mostrada en la �gura 4, a partir de un
proceso estadístico. El número total de eventos N asociada a dicha distribución está dado
por,
N =
∑
x′
f(x′) =
∫ ∞
−∞
f(x′)dx′. (4.6)
De la misma forma, el número de eventos dentro de un rango,
0
0.1
0.2
-10 -5 0 5 10
f
(x
)
x
N(x1 < x < x2) =
∫ x2
x1
f(x)dx. (4.7)
El siguiente paso es investigar las propiedades de la función distribución de probabilidad
f . La de�nición del promedio de cualquier cantidad,
〈x〉 =
∫
dx′ρ(x)x′ caso continuo (4.8)
〈x〉 = 1
N
∑
s
x(s) =
∑
x
f(x)x
N
caso discreto, (4.9)
donde,
ρ(x) =
f(x)∫
f(x)dx
=
f(x)
N
. (4.10)
se conoce como peso estadístico y 〈x〉 es el centro de masa (centroide) de la distribución (pri-
mer momento de ρ). Similarmente, podemos de�nir los momentos de orden n de ρ, denotados
con µn de acuerdo a la siguiente expresión,
µn =
∫
ρ(x)xndx. (4.11)
esto implica que µ0 = 0 (centroide), µ1 = 〈x〉 y µ2 = 〈x2〉. El segundo momento alrededor de
la media se llama desviación cuadrática media y está de�nida como,
σ =
∫
dx′ (x′〈x〉)2ρ(x′) = 〈∆x2〉 = 〈(x−x)2〉 = 〈x2〉−〈2x〈x〉〉+〈〈x〉2〉 = 〈x2〉−〈x〉2, (4.12)
que sigue de que el promedio es una operación lineal.
NOTA: ρ es la densidad de probabilidad y es un concepto equivalente a Ni/N , pero
en estadística no se necesiuta esta última y no tiene signi�cado de probabilidad (problema
ergódico).
En general el promedio de cualquier función g es,
〈g(x)〉 =
∫
dx g(x)ρ(x′), (4.13)
f(x′) es el promedio de la función δ(x′ − x),
〈δ(x′ − xs)〉 =
∫
dx ρ(x)δ(x− x′) = ρ(x′). (4.14)
Extensión: Escojamos un grupo R (subclase de la muestra) y de�nimos la función de
conteo,
θR(s) =
{
1 si s ∈ R
0 si s 6∈ R
Entonces,
N =
∑
s
θR(s) y P (R) =
NR
N
= 〈θR〉,
es la distribución de probabilidad de la clase R.
NOTA: En general un método para conocer una función de distribución es calcular todos
sus momentos, bautizamos los momentos como funciones de correlación, de�nidas para la
distancia k de acuerdo a,
Ck =
1
N ′′
N ′′∑
s=1
x(s)x(s+ k)− 〈x〉2, donde N ′′ = N − k (4.15)
después hablaremos de la utilidad de las funciones de correlación porque son medibles, por
ejemplo, en un experimento de dispersión. Por lo pronto, nótese que si,
Ck = 0 ⇒ 〈xsxs+k〉 = 〈x〉2 ⇒ 〈xs〉〈xs+k〉,
los eventos no están correlacionados, es decir, son estadísticamente independientes. Este orden
es un nuevo concepto estadístico que determinará la distancia entre dos eventos (o muestra
estadística). Las funciones de correlación son básicas en la física porque todas las cantidades
medibles son funciones de correlación.
A continuación damos la de�nición más general de probabilidad, por lo tanto la que
hemos obtenidos con la estadística tiene que ser un caso especial de la siguiente de�nición.
Para tener una probabilidad se necesita,
Un grupo de muestreo (E)
De�nir clases (etiquetas, nombres, propiedades) R
Pesos estadísticos para cada clase P (R).
Las condiciones que se deben satisfacer son,
1. E 6= φ
2. R ⊂ E y,

si R1 y R2 son clases
R1 ∩R2 es clase
R1 ∪R2 es clase
si R es clase, Rc es clase.
3. P (R) ≥ 0,
⇒ P (R1 ∪R2) = P (R1) + P (R2)− P (R1 ∩R2)
P (E) = 1
Si todo esto se cumple P es una probabilidad.
Ejemplo: Consideremos un dado. Cuando lanzamos un dado, existen 6 maneras distintas en
las que el dado puede caer, por lo tanto, espacio muestral está dado por,
E = {1, 2, 3, 4, 5, 6}
Ri = i, i ∈ E
Cada una de las caras del dado, tiene una probabilidad asociada de,
P (i) =
1
6
, P (1 ∪ 2) = P (1) + P (2) = 1
3
, P (1 ∩ 2) = 0
Consideremos los subespacios,
R1 = {1, 2, 3} R2 = {4, 5, 6}
por lo tanto,
P (R1) = P (R2) = P (1) + P (2) + P (3) = P (4) + P (5) + P (6) =
1
2
Con esto,
P (E1, E2) = Pi(E1) + Pi(E2)⇒ 2Pi(Ei) =
1
6
Pi(E1 ∩ E2) = Pi(E1)Pi(E2),
P (R1 ∩R2) = P (R1)P (R2)
4.1. Teorema del límite central
Consideremos un conjunto de N variables aleatorias x1, x2, · · · , xN , estadísticamente in-
dependientes,
x =
1
N
N∑
i=1
xi, (4.16)
si p(x) no depende de i, entonces la distribución de probabilidad f(x) = cte. El valor medio
está dado por la expresión,
〈x〉 =
∑N
i=1 f(xi)xi∑N
i=1 f(xi)
, (4.17)
y en general para cualquier función g(x) se de�ne como,
〈g(x)〉 =
∑N
i=1 f(xi)g(xi)∑N
i=1 f(xi)
. (4.18)
Recordemos que la densidad de probabilidad cumple,
ρ(xi) =
f(xi)∑N
i=1 f(xi)
⇒
∑
i
ρ(xi) = 1, (4.19)
y además que,
〈f + g〉 = 〈f〉+ 〈g〉
〈cf〉 = c〈f〉,
podemos escribir,
∆x = x− 〈x〉 ⇒ 〈∆x〉 = 0.
〈(∆x)2〉 =
N∑
i=1
ρ(xi)(xi − 〈x〉)2 ≥ 0 ⇒ 〈x2〉 ≥ 〈x〉2.
4.1.1. El caminante al azar
En esta sección seguiremos el procedimiento desarrollado en la referencia [5]. Tenemos un
caminante que comienza su trayectoria en el origen. Cada paso que toma tiene un longitud
`, sin embargo las direcciones que toma a paso (izquierda o derecha) son completamenteindependientes entre sí, es decir, a cada paso la probabilidad de ir hacia la derecha es p,
mientras que la probabilidad de ir a la izquierda es q = 1− p. En el caso más simple p = q,
pero en general p 6= q.
Entonces se puede considerar que cada paso esta caracterizado por su probabilidad respec-
tiva, independientemente de la historia. La probabilidad de cualquier secuencia de n1 pasos a
la derecha y n2 pasos a la izquierda, se obtiene, por lo tanto, de multiplicar las probabilidades
respectivas,
pp · · · pqq · · · q = pn1qn2 (4.20)
Pero hay varias maneras posibles de tomar N pasos de tal forma que n1 de ellos sean a la
derecha y n2 a la izquierda, y este número de posibilidades está dado por el factor,
N !
n1!n2!
. (4.21)
Por lo tanto, la probabilidad WN(n1) de tomar n1 pasos de un total N a la derecha y
n2 = N − n1 a la izquierda, en cualquier orden se obtiene multiplicando la ecuación 4.20 por
4.21 que da las secuencias posibles de estos pasos,
WN(n1) =
N !
n1!n2!
pn1qn2 (4.22)
Esta distribución de probabilidad se llama distribución binomial. Recordando que la ex-
pansión binomial está dada por la fórmula,
(p+ q)N =
N∑
n=0
N !
n!(N − n)!
pnqN−n, (4.23)
notemos que si conocemos que el caminante ha efectuado n1 pasos a la derecga de un total
N , entonces el desplazamiento neto a partir del origen está determinado. La probabilidad
PN(m) de que el caminante se encuentre en la posición m después de N pasos es la misma
que WN(n1),
PN(m) = WN(n1).
Recordando que N = n1 + n2 y m = n1 − n2, podemos encontrar,
n1 =
1
2
(N +m) n2 =
1
2
(N −m).
Sustituyendo en la ecuación 4.22 obtenemos,
PN(m) =
N !(
N+m
2
)
!
(
N−m
2
)
!
p(N+m)/2(1− p)(N−m)/2, (4.24)
que para el caso especial p = q = 1/2 toma la forma simétrica,
PN(m) =
N !(
N+m
2
)
!
(
N−m
2
)
!
(
1
2
)N
(4.25)
Distribución de probabilidad cuando N es grande
Cuando N es grande, la distribución de probabilidad binomial,
WN(n1) =
N !
n1!n2!
pn1qN−n1 , (4.26)
tiende a exhibir un máximo pronunciado en algún valor n1 = ñ1 y decrece rápidamente
cuando nos alejamos de ñ1. Usaremos esto para encontrar la expresión de WN(n1) cuando N
es su�cientemente grande. Si N es grande podemos considerar regiones cerca del máximo de
W donde n1 también es muy grande, el cambio fraccional de W cuando n1 cambia por una
unidad es relativamente pequeño y por lo tanto se cumple en general,
|W (n1 + 1)−W (n1)| << W (n1), (4.27)
entonces W puede, en buena aproximación, ser considerada como una función continua de
la variable continua n1, aunque sólo valores enteros de n1 son físicamente relevantes. La
localización n1 = ñ del máximo de W está determinado aproximadamente por la condición,
dW
dn1
o equivalentemente
d lnW
dn1
= 0 (4.28)
donde las derivadas son evaluadas en n1 = ñ1. Para investigar el comportamiento de W (n1)
cerca de su máximo, pondremos,
n1 ≡ ñ1 + η (4.29)
y realizamos un desarrollo en series de Taylor de lnW (n1) alrededor de ñ1. La razón de
desarrollar el logarítmo en lugar de W surge de que lnW es una función que varía mucho
más lentamente en función n1, esto comparado con la variación de W . Entonces el desarrollo
en series de potencias para lnW debe converger más rápidamente que el desarrollo de W .
Por lo tanto,
lnW (n1) = lnW (ñ1) +B1η +
1
2
B2η
2 +
1
6
B3η
3 + · · · (4.30)
donde,
Bk ≡
dk lnW
dnk1
(4.31)
es la k-ésima derivada de lnW evaluada en n1 = ñ1. Como estamos desarrollando alrededor
del máximo B1 = 0. Además como W es un máximo, entonces el término 12B2η
2 debe ser
negativo, i.e., B2 debe ser negativo. Para hacer esto explícito, reescribimos B2 = −|B2|, por
lo tanto, sustituyendo W̃ = W̃ (ñ1) en la ecuación 4.30,
W (n1) = W̃e
1
2
B2η2+
1
6
B3η3··· = W̃e−
1
2
|B2|η2e
1
6
B3η3 · · · (4.32)
En una región donde η es su�cientemente pequeña los términos de orden superior del
desarrollo pueden ser despreciados; por lo tanto, se obtiene en primera aproximación,
W (n1) = W̃e
− 1
2
|B2|η2 . (4.33)
Investigaremos la expresión 4.30 un poco. Considerando la expresión,
W (n1) =
N !
n1!(N − n1)!
pn1qN−n1 (4.34)
y tomando el logaritmo obtenemos,
lnW (n1) = lnN !− lnn1!− ln(N − n1)! + n1 ln p+ (N − n1) ln q (4.35)
Si n es un número entero grande, tal que n >> 1, entonces lnn! puede considerarse como
una función casi continua de n, y como el lnn! cambia solamente por una fracción pequeña
si n cambia por un entero pequeño,
d lnn!
dn
≈ ln(n+ 1)!− lnn!
1
= ln
(n+ 1)!
n!
= ln(n+ 1) (4.36)
Así,
d lnn!
dn
≈ lnn (4.37)
Por lo tanto la expresión 4.34, puede reescribirse,
d lnW
dn1
= − lnn1 + ln(N − n1) + ln p− ln q (4.38)
Igualando a cero obtenemos el valor n1 = ñ1 donde W es un máximo, y llegamos a,
ln
[
(N − ñ1)
ñ1
p
q
]
= 0, (4.39)
o bien,
(N − ñ1)p = ñ1q ⇒ ñ1 = Np (p+ q = 1) (4.40)
De igual manera, considerando la derivada a segundo orden,
d2 lnW
dn21
=
1
n1
− 1
N − n1
(4.41)
y evaluando para n1 = ñ1 obtenemos,
B2 = −
1
Np
− 1
N −Np
= − 1
N
(
1
p
+
1
q
)
= − 1
Npq
(4.42)
en el último paso, considerando p + q = 1. Por lo tanto B2 es negativo. La constante W̃ la
ecuación 4.34 se determina por normalización, considerando que W y n1 con casi continuas,
N∑
n1=0
W (n1) ≈
∫
W (n1)dn1 =
∫ ∞
∞
W (ñ1 + η)dη = 1 (4.43)
Sustituyendo la expresión 4.33 en la ecuación anterior,
W̃
∫ ∞
−∞
e−
1
2
|B2|η2dη = W̃
√
2π
|B2|
= 1 (4.44)
Por lo tanto la ecuación 4.33 queda como,
W (n1) =
√
|B2|
2π
e
1
2
|B2|(n1−ñ1)2 , (4.45)
la cual es la distribución Gaussiana, que ocurre frecuentemente en estadística cuando se
trabaja con números grandes. Considerando las expresiones 4.40 y 4.42 llegamos a,
W (n1) = (2πNpq)
−1/2 exp
[
−(n1 −Np)
2
2Npq
]
. (4.46)
Esta expresión, para valores grandes de N y n1, es más simple que la ecuación 4.34 y no
requiere la evaluación de factoriales.
Podemos obtener dos expresiones de utilidad si consideramos el problema del caminante
al azar. Recordemos que p es la probabilidad de dar un paso a la derecha, por lo tanto, el
número promedio de pasos a la derecha de un total de N pasos está dado simplemente por
ñ1 = Np, si calculamos la dispersión a esta cantidad, obtenemos,
〈(∆n1)2〉 = Npq desplazamiento cuadrático medio. (4.47)
Escribiendo la expresión 4.46, en términos de las dos cantidades anteriores, obtenemos la
expresión más general,
W (n1) = (2π〈(∆n1)2〉)−1/2 exp
[
−(n1 − ñ1)
2
2〈(∆n1)2〉
]
. (4.48)
Clase 5
Teorema del límite central
El teorema del límite central (TLC) es uno de los resultados más importantes en teoría
de probabilidad. Existe otro resultado clásico de la teoría de probabilidad, la ley de los gran-
des números, que establece que bajo ciertas condiciones el promedio de las sumas parciales
de variables aleatorias independientes e idénticamente distribuidas puede aproximarse al va-
lor esperado de estas variables aleatorias. El TLC da información más sustancial sobre las
�uctuaciones de los promedios de estas sumas parciales, alrededor de su valor esperado. Esta-
blece que si multiplicamos esta �uctuación por
√
N , donde N denota el número de variables
aleatorias en el promedio, entonces la distribución de la �uctuación tiende a una distribución
independiente del número N . Más aún, la distribución a la que se aproxima, no depende de la
distribución de las variables aleatorias cuyos promedios son considerados. Esta distribución
es una ley universal, conocida como distribución normal.
La teoría de Fourier da un método natural para demostrar la versión local del teorema
del límite central, i.e., para describir el comportamiento asintótico de la densidad y no de
la función de distribución normalizada de las sumas parciales de las variables aleatorias
independientes.
Consideremos un conjunto de N variables aleatorias (recordemos que el caminante al
azar es una suma de variables estocásticas.) x1, x2, · · · , xN , estadísticamente independientes
y distribuidas estadísticamente de la misma manera. Sea ~XN la suma de estas N variables
aleatorias, es decir,
~XN =
N∑
n=1
~xn (5.1)
como los elementos

Continuar navegando