Logo Studenta

fmc

¡Este material tiene más páginas!

Vista previa del material en texto

1
Física Moderna y Cosmología
Rubén M. Cabezón
Jordi Òrrit
Dept. Física e Ingeniería Nuclear
UPC
2
FÍSICA MODERNA Y COSMOLOGÍA
Tipo de asignatura: Libre elección
Créditos: 4.5 (Teóricos: 3, Prácticos: 1.5)
Departamento responsable: Física e Ingeniería Nuclear.
Coordinación: Rubén Cabezón, Jordi Òrrit
Semestre: 2º
OBJETIVOS DOCENTES
El objetivo de esta asignatura es presentar de forma sencilla los conceptos pilares en los que se sustenta el
conocimiento científico actual de nuestro universo. Se proporcionarán los conocimientos esenciales en las
materias de física cuántica, física nuclear, astrofísica y cosmología; siempre en un marco cualitativo
evitando, en lo posible, las complejidades inherentes a la materia. La finalidad última es que el alumno
adquiera una capacidad de análisis crítico frente a las noticias y desarrollos científicos que se encuentre
en el día a día.
CONTENIDOS
BLOQUE I: Física Moderna
1. INTRODUCCIÓN HISTÓRICA
2. FÍSICA CUÁNTICA
Radiación de cuerpo negro. Ley de Planck. Cuantización. Aplicaciones: microscopio de efecto túnel.
Parejas EPR y teleportación cuántica.
3. FÍSICA NUCLEAR Y DE PARTÍCULAS
Partículas elementales. Leyes de conservación. Reacciones nucleares. Aceleradores de partículas.
4. FÍSICA MODERNA
Teorías de unificación. Supercuerdas y Física Multidimensional.
BLOQUE II: Astrofísica y Cosmología
1. INTRODUCCIÓN HISTÓRICA
2. FÍSICA ESTELAR
Las estrellas. Diagrama H-R. Nacimiento y evolución. Objetos compactos y variables cataclísmicas.
3. ASTRONOMÍA GALÁCTICA Y EXTRAGALÁCTICA
Catálogos históricos. Cúmulos estelares, nebulosas y galaxias. Indicadores de distancia.
4. COSMOLOGÍA
Teoría Newtoniana de la Gravitación. La Relatividad General. El Principio Cosmológico. La Ley de
Hubble. La Radiación de Fondo. Modelo inflacionario. Historia de la evolución del universo.
5. ASTROFÍSICA Y COSMOLOGÍA DEL S. XXI
Materia y energía oscura. Ondas gravitatorias. GRB. ¿“Antes” del Big Bang?. Astrobiología. El viaje
interestelar.
EVALUACIÓN
50% - Exposición oral de un trabajo bibliográfico.
50% - Examen escrito tipo test.
3
Propuestas para posibles trabajos
• GRAN T-CAN. El nuevo telescopio en canarias.
• Instrumentación en Astrofísica y repercusión en el avance científico.
• El Large Hadron Collider (LHC). Estado actual y perspectivas de futuro.
• La partícula de Higgs.
• Agujeros negros supermasivos.
• Supernova Cosmology Project y el futuro del universo.
• La evolución de los aceleradores de partículas y perspectivas de futuro.
• Detectores de ondas gravitatorias.
• Interferometría óptica.
• Métodos de propulsión. Presente y futuro.
• Próximas misiones espaciales y proyectos de investigación astrofísica y/o cosmológica.
• Reacciones nucleares como fuente de energía.
• Fusión Nuclear: ¿La energía del futuro?
• El Ordenador Cuántico
• De Hiroshima a la Bomba de Hidrógeno: El peligro de una guerra nuclear.
• M-Theory: ¿La teoría última?
4
Índice
• Bloque I: Física Moderna y de Partículas ............................. 5
• El Modelo Estándar. Historia acelerada 6
• Radiación de Cuerpo Negro 7
• Ley de Planck 10
• Cuantización 11
• El modelo Estándar 20
• Números Cuánticos 23
• Reacciones Nucleares 24
• Bloque II: Astrofísica y Cosmología .................................. 29
• Física Estelar 30
• Ecuación de equilibrio hidrostático 34
• Ecuaciones de Friedmann 36
• Derivación clásica de las Ecuaciones de Friedmann 38
• Definiciones de parámetros cosmológicos y relaciones 40
• Modelo de Friedmann-Robertson-Walker 41
• Cronología del Universo 42
• Breve historia de la Cosmología clásica 43
• Cuestiones y Problemas ....................................................... 48
• Glosario ................................................................................ 57
• Biografías ............................................................................. 67
• Anexos.................................................................................. 81
• Anexo I: Factores de conversión 82
• Anexo II: Constantes físicas 83
• Anexo III: Ecuaciones de Einstein del campo gravitatorio 84
• Anexo IV: Modelos particulares e históricos del Universo 86
• Bibliografía .......................................................................... 88
5
Bloque I:
Física Moderna y de
Partículas
6
El Modelo Estándar: historia acelerada.
Arquitectos Fecha Partículas Fuerzas Comentario
Tales
(milesio)
600 a.C. Agua No se mencionan Fue el primero en explicar el
mundo mediante causas
naturales, no mediante los
dioses. En el lugar de la
mitología puso la lógica.
Empédocles
(de Agrigento)
460 a.C. Tierra, aire, fuego
y agua
Amor y discordia Aportó la idea de que hay
múltiples partículas que se
combinan para formar todos los
tipos de materia.
Demócrito
(de Abdera)
430 a.C. El átomos invisible
e indivisible, o á-
tomo.
El movimiento violento
constante
Su modelo requería demasiadas
partículas, cada una con una
forma diferente, pero su idea
básica de que hay un á-tomo
que no puede ser partido sigue
siendo la definición básica de
partícula elemental.
Isaac Newton
(inglés)
1687 Átomos duros, con
masa,
impenetrables.
La gravedad (para el
cosmos). Fuerzas
desconocidas (para los
átomos)
Le gustaban los átomos, pero no
hizo que su causa avanzase. Su
gravedad es un dolor de cabeza
para los peces gordos en la
década de 1990.
Roger J. Boscovich
(dálmata)
1760 “Puntos de fuerza”,
indivisibles y sin
forma o dimensión.
Fuerzas atractivas y
repulsivas que actúan
entre puntos
Su teoría era incompleta,
limitada, pero la idea de que
hay partículas de radio “nulo”,
puntuales, que crean “campos
de fuerza”, es esencial en la
física moderna.
John Dalton
(inglés)
1808 Los átomos, las
unidades básicas
de los elementos
químicos: el
carbono, el
oxígeno, etc...
La fuerza de atracción
entre los átomos
Se precipitó al resucitar la
palabra de Demócrito –el átomo
de Demócrito-, pero dio una
pista al decir que los átomos
diferían en peso, no en su
forma, como pensaba
Demócrito.
Michael Faraday
(inglés)
1820 Cargas eléctricas Electromagnetismo (más
la gravedad)
Aplicó el atomismo a la
electricidad al conjeturar que
las corrientes estaban formadas
por “corpúsculos de
electricidad”, los electrones.
Dmitri Mendeleev 1870 Más de cincuenta
átomos, dispuestos
en la tabla
periódica de los
elementos.
No hace cábalas sobre
las fuerzas
Tomó la idea de Dalton y
organizó todos los elementos
químicos conocidos. En su tabla
periódica apuntaba con claridad
una estructura más profunda y
significativa.
Ernest Rutherford
(neozelandés)
1911 Dos partículas:
núcleo y electrón
La fuerza nuclear
(fuerte), más el
electromagnetismo y la
gravedad.
Al descubrir el núcleo, reveló
una nueva simplicidad dentro
de todos los átomos de Dalton.
Bjorken, Fermi,
Friedman, Gell-
Mann, Glashow,
Kendall, Lederman,
Perl, Ritcher,
Schwartz, Steinberg,
Taylor, Ting, más un
reparto de miles
1992 Seis quarks y seis
leptones, más sus
antipartículas. Hay
tres colores de
quarks.
El electromagnetismo, la
interacción fuerte, la
débil: doce partículas que
llevan las fuerzas, más la
gravedad.
Incompleto.
“La partícula divina” – Leon Lederman.
7
Física Cuántica
1.- Radiación del cuerpo negro.
Al calentar un cuerpo éste desprende radiación electromagnética. Consideremos un
cuerpo; por el Principio de Conservación de la Energía podemos escribir:
Ei (energía recibida) = Er (energía reflejada) + Ea (energía absorbida) + Et (energía
transmitida)
Las energías en S.I. se miden en Joules (J).
Los casos relevantes son los estados de equilibrio, Ea = Erad (energía radiada), ya que
solo entonces se puede medir la temperatura (T). Para estudiar las características de los
cuerpos se pueden definir los siguientes coeficientes
 
E
E
 r 
i
r= Poder Reflector
i
a
E
E
 a = Poder Absorbente
i
t
E
E
 t = Poder Transmisor
Casos particulares
r = 1 ; a ≈ t ≈ 0 ; buen reflector
t = 1 ; a ≈ r ≈ 0 ; buen transmisor
a = 1; r ≈ t ≈ 0 ; buen absorbente → Cuerpo Negro
Dichos coeficientes cumplen: r + a + t =1
Porlo tanto, toda la luz que llega a un cuerpo negro es absorbida por éste. Si, además el
cuerpo se encuentra en equilibrio térmico, la energía absorbida por el cuerpo es liberada
posteriormente en forma de radiación térmica (Erad). La Ea calienta el cuerpo y ello
hace que el cuerpo emita radiación. Para que la radiación emitida se encuentre en el
rango del visible la temperatura a la que llegue el cuerpo debe ser suficientemente
elevada (∼600 K).
Para un análisis más real, los poderes deberían medirse para cada frecuencia diferente.
Por lo tanto, el método más correcto es tomar como variables la frecuencia (ν), y la
temperatura (T).
Definimos la radiación térmica
t Se E rad ⋅⋅=
8
donde e es el Poder Emisor (W/m2), S la superficie (m2) y t (s) el tiempo. Aunque cada
cuerpo tiene diferentes e para cada ν y cada T, se puede hacer una aproximación en que
e tenga el mismo valor para cualquier ν y T.
e se relaciona con a de la siguiente forma
TR a
e
= (E. R. Kirchoff (1824-1887))
donde RT es la Radiancia Total (W/m
2) para una cierta temperatura T. Esta relación es
universal (es la misma para todos los cuerpos). Esta ley implica que los buenos
absorbentes son también los buenos emisores.
El cuerpo negro es el absorbente/emisor perfecto:
 e0 = R (a0 = 1)
Ejemplos:
Cobre: 
0e
e
= 0,04
Hierro:
0e
e
= 0,70
Madera:
0e
e
= 0,90
donde e0 es el poder emisor del cuerpo negro.
RT puede ser calculada integrando la Radiancia Espectral o Densidad de Radiancia
RT(ν) para todo el espectro de frecuencias.
Ley de Stefan-Boltzmann
4TRT ⋅= σ
σ (constante de Stefan-Boltzmann) = 5,670·10-8 W/m2K4
el estudio práctico (debido a Stefan) se realiza a través de la radiancia y el teórico
(realizado por Boltzmann) a través de la densidad de energía almacenada en el cuerpo.
Densidad de Energía, ρρT: Energía por unidad de volumen a una cierta temperatura T.
Unidades: J/m3.
R R dT T=
∞z ν νb g0
9
4
 R T
c
Tρ=
donde c es la velocidad de la luz, c = λν (λ: longitud de onda). Análogamente al caso de
la radiancia podemos escribir:
∫
∞
=
0
)( ννρρ dTT (ρT(ν ): Densidad de Energía Espectral)
Llegados a este punto, la cuestión fundamental es determinar la función que relaciona
ρT(ν) con ν y T. Esta cuestión fue tratada ampliamente a finales del siglo XIX-
principios del siglo XX.
Primera ley de Wien o Ley del desplazamiento
W.Wien dedujo que la función debía ser de la forma ρT(ν) = ν3·f(ν/T) (1893), aunque
no determinó f(ν/T). Sin embargo, de este modo conseguía reducir el problema a una
función de una variable (ν/T). Además, dedujo que la función tenía un máximo y que la
posición de éste se desplazaba con la temperatura (Ley del desplazamiento de Wien)
kcmT ⋅=⋅ 29,00λ
donde λ0 es la longitud de onda que hace máxima la densidad espectral de energía. Si
tenemos en cuenta que ν0 = c/λ0 podemos ver que la posición del máximo de densidad
en un diagrama ρT - ν/T se desplaza a la derecha a medida que aumentamos la
temperatura del cuerpo.
Segunda ley de Wien
En 1896, W.Wien, en función del comportamiento observado, propuso la siguiente
función
T
T
ν
β
νανρ
−
⋅⋅= l3)(
donde α y β son dos constantes. Comparando con las medidas obtenidas
experimentalmente, se puede observar que los puntos experimentales se ajustan bastante
bien a lo que predice la teoría en la parte alta del espectro (Zona de Wien), para
frecuencias tales que ν > ν0, sin embargo existe bastante discrepancia para frecuencias
por debajo de la frecuencia que hace máxima la densidad de energía(ν0).
Ley de Rayleigh-Jeans
J.H. Jeans y J.W.S. Rayleigh propusieron lo siguiente
T
N
R
cT 3
28
)(
πν
νρ =
donde NA es el número de Avogadro (=6,022·10
23 mol-1 ) y R la Constante de los Gases
10
Ideales (= 8,314 J/K·mol). Por otro lado, R/NA = K (Constante de Boltzmann =
1,381·10-23 J/K).
Esta ecuación se dedujo mediante la física clásica. Sin embargo no tiene máximo y para
altas frecuencias diverge, con lo que al integrar se obtiene una densidad de energía
infinita. A este problema se la llamó catástrofe del ultravioleta.
Por otro lado, para bajas frecuencias, ν < ν0, la función se ajusta bastante a lo observado
por lo que a esta zona del espectro se la conoce como Zona de Rayleigh-Jeans.
Espectro electromagnético
2.- Ley de Planck.
En octubre de 1900 M.K.E.L.Planck propuso la siguiente fórmula
1
18
)(
3
3
−
=
KT
hT c υ
πν
υρ
l
donde h era una constante universal nueva, la Constante de Planck (h = 6,626·10-34 J·s
= 4’1357·10-15 eV·s)
Ésta se ajusta a los valores obtenidos experimentalmente para todo el espectro. Además,
las leyes de Wien y Rayleigh-Jeans se pueden obtener de ésta mediante aproximaciones
para bajas o altas frecuencias.
En diciembre del mismo año, Max Planck presentó una demostración teórica de esta ley
en la cual hacía una polémica suposición que él llamó “acto de desesperación”. Esta
suposición consistió en la Hipótesis Cuántica, por la cual establecía que
nhE
abs
em ⋅⋅= ν
donde el producto hν (Constante de Planck por frecuencia) es conocido como cuantum
(o cuanta) de energía, la energía mínima necesaria para que se produzca emisión o
11
absorción de radiación. Por otro lado, n determina el grado de la energía o el número de
cuantums que son absorbidos o emitidos por el cuerpo, es decir, la energía radiativa
intercambiada entre un cuerpo negro y su entorno es siempre un múltiplo de hν. El
modelo que Planck propuso para basar dicha demostración describía el comportamiento
de un conjunto de partículas cargadas o resonadores que oscilaban entorno a un punto
de equilibrio (así es como se describía la materia por aquel entonces). Sin embargo, la
novedad que Planck introdujo fue el hecho de que aquellos resonadores o péndulos
diminutos variaban su energía a saltos (cuantums) en lugar de hacerlo de forma continua
como establecía la física clásica ( Resonadores de Planck). El hecho de que la energía
pudiera ser discreta en lugar de continua representaba una profunda ruptura con la
concepción clásica de la física.
3.- Cuantización.
Interacción Radiación-Materia
Efecto fotoeléctrico: Ocurre para radiación del tipo visible o ultravioleta (hν ∼ 1eV)
En 1887, E.Hertz observó que las descargas eléctricas entre dos electrodos eran más
vistosas y se producían más fácilmente si incidía luz ultravioleta en el cátodo.
P.E.A.Lenard demostró que esto sucede debido a que la radiación ultravioleta libera
electrones del metal. A este fenómeno se le llamó efecto fotoeléctrico.
En 1905, A.Einstein propuso una teoría en la que iba más allá de lo que había postulado
Planck en 1900 al afirmar que la radiación no sólo era emitida de forma cuantizada por
electrones oscilantes en un cuerpo negro, sino que, además, la radiación en si misma
estaba discretizada en paquetes o cuantums de energía E = hνν (que más tarde recibieron
el nombre de fotones). De este modo la luz, además de tener propiedades ondulatorias
(como ya se había demostrado anteriormente), presentaba propiedades corpusculares.
Para apoyar esta teoría y basándose en el trabajo anterior de Lenard, Einstein citó el
efecto fotoeléctrico. Según Einstein, en el efecto fotoeléctrico un fotón es
completamente absorbido por un electrón del fotocátodo, el cual, al escapar del metal,
tiene una energía cinética que viene dada por
whEcin −= ν
donde w es la Función Trabajo o energía necesaria para liberar un electrón y depende
de cada material. De esto se desprende que la energía cinética de los portadores de carga
liberados depende de la frecuencia de los fotones y, por lo tanto, del color de la
radiación incidente. Esto contradecía la teoría ondulatoria por la cual la Ecin dependía de
la intensidad. Además, existe una frecuencia mínima ν = w/h por debajo de la cual un
fotón no tiene la energía necesaria para arrancar un electrón del cátodo.
 Las magnitudes que definen un fotón son las siguientes:
Masa en reposo: m = 0
Velocidad: c (en el vacío)
12
Energía: ωνε h== h ; 
π2
h
=h
Cantidad de movimiento:
c
h
p
ν
=
Efecto Compton: Ocurrepara radiación del tipo rayos X (hν ∼ 1KeV)
A.H.Compton descubrió en 1923 que al hacer incidir rayos X de longitud de onda λ0
conocida sobre grafito aparecían dos picos de dispersión, uno de fotones de longitud de
onda λ0 y otro de fotones de longitud de onda λ1, en lugar de uno sólo de λ0 que es lo
que la teoría clásica predecía. Para explicar este resultado es necesario considerar dos
procesos. En un proceso un fotón choca elásticamente con un electrón cediéndole una
pequeña cantidad de su energía. Como consecuencia el fotón dispersado tendrá menor
energía que antes de colisionar y, por lo tanto, una longitud de onda más grande λ1. La
relación entre λ0 y λ1 viene dada por
))(cos1(01 ϑλλλλ −=−=∆ C
donde ∆λ es el corrimiento Compton, λ1 es la longitud de onda del fotón dispersado,
λ0 es la longitud de onda del fotón incidente, λC = h/mec = 0,02426 Α es la Longitud de
Onda de Compton y me la masa del electrón .
En este proceso hemos considerado que el fotón incidente choca con un electrón libre o
con un electrón cuya energía de enlace es mucho menor que la energía cinética del fotón
y por lo tanto queda libre después del choque. Sin embargo, si el electrón está muy
fuertemente ligado al átomo el fotón no consigue arrancarlo y, debido a la atracción
núcleo-electrón, es el átomo entero el que retrocede al colisionar con el fotón. Así pues,
se debe considerar que el fotón choca contra todo el átomo, por lo cual debemos
substituir me por la masa atómica M, M >> me. En este caso el corrimiento Compton es
muy pequeño, ∆λ ∼ 0, y los fotones dispersados dan lugar a un pico de dispersión con
longitud de onda prácticamente igual al de los fotones del haz incidente. Este proceso se
conoce con el nombre de dispersión Thomson. La mayor o menor intensidad de un
pico respecto otro dependerá de la energía (y por lo tanto de la frecuencia y de la
longitud de onda) de los fotones incidentes.
En toda la descripción anterior del efecto Compton hemos considerado la radiación
electromagnética como un haz de partículas o fotones, lo que en su tiempo vino a
confirmar el comportamiento corpuscular de la luz. En este experimento se combinaban
relatividad y física cuántica por primera vez lo cual confirmaba de algún modo las dos
teorías.
Creación y de Pares: Ocurre para radiación del tipo rayos γ (hν ∼ 1MeV)
Se ha observado que cuando un fotón con una energía suficientemente elevada incide
sobre un núcleo, desaparece dando lugar a la creación de un electrón y un positrón
(antipartícula que tiene las mismas propiedades que un electrón pero su carga tiene
signo opuesto).
El proceso inverso es la aniquilación de pares. En este caso un electrón y un positrón
13
inicialmente en reposo se combinan hasta que terminan colapsando el uno contra el otro.
Durante esta proceso forman lo que se conoce como positronio, que se comporta de
forma parecida al átomo de hidrógeno, y que tiene una vida media de 10-10 segundos. En
la aniquilación se deben formar al menos dos fotones (en algunos casos se forman tres)
para no violar la conservación del momento cinético.
Modelos Atómicos
J.J.Thomson (1903)
En el modelo atómico que propuso los electrones se encontraban dentro de una
distribución continua de carga positiva. Por su analogía éste modelo fue conocido como
“pastel de pasas” o “sandía”. En átomos excitados los electrones vibrarían alrededor de
sus posiciones de equilibrio, lo que explicaría, por ejemplo, la radiación emitida por un
material el ser calentado.
 
E.Rutherford (1911)
Observó que cuando un haz de partículas α (núcleos de He) incidía en una lámina de
oro, algunas partículas se desviaban y otras no. Del análisis de la dispersión observada
dedujo que toda la carga positiva del átomo y prácticamente toda su masa se debían
concentrar en un núcleo situado en el centro del átomo y mucho más pequeño que éste
(Modelo Planetario). Las magnitudes atómicas que él predijo se acercan bastante a lo
observado (Rátomo ∼ 10-10, Rnúcleo ∼ 10-14).
Modelos espectrales
J.Balmer, en 1885, encontró una fórmula empírica que predecía el comportamiento de
las líneas espectrales de emisión observadas hasta entonces en el Hidrógeno:
4
6,3645
2
2
−
=
n
n
λ
Con esta fórmula obtenemos la longitud de onda en Amstrongs de las líneas espectrales
que se observan para una parte determinada del espectro (serie de Balmer), las cuales
vienen determinadas por n (n=3 (Hα), 4 (Hβ), 5 (Hγ), 6 (Hδ)… y así hasta las nueve
primeras líneas de la serie, que eran las que se conocían hasta entonces.).
En 1890, J.R.Rydberg propuso una fórmula más general que la de Balmer
 
)()(
1
bn
R
am
R HH
+
−
+
=
λ
donde RH = 10967757,6 ± 1,2 m es la Constante de Rydberg para el hidrógeno, a y b
dependen del material, y m y n nos definen la línea del espectro que se quiera obtener.
14
En el caso del hidrógeno obtenemos la fórmula de Balmer substituyendo a = b = 0, RH =
K
4
 y m = 2.
Así pues, mediante esta fórmula y haciendo a = b = 0, podemos deducir las series de
líneas espectrales del hidrógeno:
Nombres Intervalos de λλ (m,n)
Lyman Ultravioleta m = 1; n = 2,3,4,…
Balmer UV cercano y visible m = 2; n = 3,4,5,…
Pashen Infrarrojo m = 3; n = 4,5,6,…
Brackett Infrarrojo m = 4; n = 5,6,7,…
Pfund Infrarrojo m = 5; n = 6,7,8,…
N.Bohr (1913)
Bohr introdujo un modelo fundamentándose en la estabilidad atómica y de forma que
estuviera de acuerdo con ciertos resultados espectroscópicos. Al desarrollar este
modelo, Bohr se basó en las nuevas teorías de interacción radiación-materia y introdujo
propiedades cuánticas de manera que su modelo mezcla la física clásica con la física no
clásica. Los postulados sobre los cuales se sustenta el modelo de Bohr son los
siguientes:
1. Un electrón se mueve en una órbita circular alrededor del núcleo bajo la influencia
de la atracción de Coulomb entre el electrón y el núcleo, sujetándose a las leyes de
la mecánica clásica.
2. En lugar de una infinidad de órbitas que serían posibles en la mecánica clásica,
para un electrón sólo es posible moverse en una órbita para la cual su impulso
angular orbital L es un múltiplo entero de h , la constante de Planck dividida entre
2π. ( hnL = ; n = 1, 2, 3,…)
3. A pesar de que el electrón se acelera constantemente cuando se mueve en una de
estas órbitas permitidas, no radía energía electromagnética. Entonces, su energía
total E permanece constante.
4. Se emite radiación electromagnética si un electrón, que inicialmente se mueve en
una órbita de energía total Ei , cambia su movimiento de manera discontinua para
moverse en una órbita de energía total Ef . La frecuencia de la radiación emitida νν
es igual a la cantidad (Ei - Ef) dividida entre la constante h de Planck.
(
h
EE fi −=ν )
Bohr presentó un modelo para el átomo de hidrógeno con la intención de que pudiera
aplicarse a átomos más pesados. Aunque para átomos mayores el modelo es demasiado
sencillo y se hace necesaria la introducción de correcciones o la aplicación de métodos
15
aproximados, para el átomo de hidrógeno e iones o isótopos monoelectrónicos funciona
correctamente. Algunos resultados para el átomo de hidrógeno que se obtienen mediante
este modelo son los siguientes:
Radio mínimo: rmin ≈ 0,5 fi
Velocidad máxima: vmax ≈ 2·106 m/s
Energía del 1er nivel: E1 ≈ -13,6 eV (energía de ionización)
Reglas de cuantización de Sommerfield
En 1916, Wilson y Sommerfield enunciaron un conjunto de reglas para sistemas
periódicos que generalizaban los diferentes conceptos de cuantización de la energía y el
momento angular de sistemas físicos introducidos hasta entonces.
Para cualquier sistema físico en el cual las coordenadas sean funciones periódicas del
tiempo existe una condición cuántica para cada coordenada. Estas condiciones
cuánticas son
∫ = hndqp qq
donde q es una de las coordenadas, pq es el impulso asociado con esa coordenada, nq
es un número cuántico que toma valores enteros y ∫ significa que la integración se
toma sobre un período de la coordenada q.
Dualidad Universal Onda-Corpúsculo
Postulado dede Broglie
En 1924, L. de Broglie postuló el comportamiento dual onda-partícula de la materia,
análogo al comportamiento ya demostrado de la radiación. De Broglie se basaba en la
simetría existente en la naturaleza. Por lo tanto, si la luz presentaba dualidad onda-
corpúsculo, era de esperar que ocurriera lo mismo para la materia. De esta forma,
podemos considerar una partícula material en movimiento como una onda de materia
que se propaga. Las relaciones entre las magnitudes típicas que describen el movimiento
corpuscular (E, p) y las que describen el ondulatorio (ν, λ) son las siguientes
νhE =
λhp =
donde λ = h/p es conocida como longitud de onda de de Broglie de una onda de
materia con momento lineal p.
16
Principio de Complementariedad
En 1927, Bohr introdujo el Principio de Complementariedad que apoyaba la dualidad
onda-corpúsculo como un comportamiento inherente a la naturaleza:
1. Los aspectos ondulatorio y corpuscular forman parte de la física en sí.
2. No son excluyentes.
3. Son complementarios en el sentido que en algunos casos para explicar la realidad
sirve un modelo y en otros sirve el otro.
Principio de Incertidumbre
El Principio de Incertidumbre de Heisenberg nos da una cota máxima de la precisión
con la que podemos medir dos variables canónicas conjugadas en física cuántica. Según
este principio en un experimento no se puede conocer simultáneamente el valor exacto
de una componente del momento lineal y, a la vez, el valor exacto de la coordenada de
posición correspondiente. El límite de precisión que el principio establece es el
siguiente
2/h≥∆∆ φφp φ = x, y, z
donde ∆pφ es la incertidumbre en la medida de la componente φ del momento lineal y
∆φ es la incertidumbre en la coordenada φ. El principio también se puede aplicar para E
y t
2/h≥∆∆ tE
donde ∆E es la incertidumbre en la energía de un sistema y ∆t es el tiempo característico
de un estado del sistema o su vida media.
El Principio de Incertidumbre no tiene en cuenta la precisión instrumental o la
indeterminación propia del experimento con el que se pretenden medir las propiedades
de un sistema (las cuales, en un caso ideal podemos tomar tan pequeñas como
queramos) sino que se fundamenta en el hecho de que al observar un sistema lo estamos
perturbando. Por ejemplo, suponiendo que se tuviera un equipo tan preciso que se
pudiera medir la coordenada x de un cuerpo de forma totalmente exacta, ∆x = 0,
entonces no se podría conocer de forma simultánea la componente x del momento
lineal, px, ya que su indeterminación sería infinita, ∆px = ∞, independientemente de la
precisión instrumental que se tuviera para medir las componentes de p. Por otra parte, el
Principio de Incertidumbre de Heisenberg se desprende de forma natural de los
conceptos sobre el comportamiento ondulatorio de la materia y la radiación introducidos
por Einstein y de Broglie.
17
Mecánica Cuántica
Erwing Schrödinger, en 1925, elaboró su teoría de la mecánica cuántica, la cual
generalizaba lo establecido por de Broglie anteriormente y le daba consistencia. Todo lo
relativo a la física cuántica realizado hasta entonces recibe el nombre de teoría
cuántica antigua y, aunque había dado muy buenos resultados y todavía hoy en día se
usa como una aproximación bastante precisa, lo cierto es que padecía algunos puntos
débiles y limitaciones que con la nueva teoría desaparecieron. La ecuación de
Schrödinger para una partícula o sistema sometido a una fuerza con un potencial V(x,t)
es:
t
tx
itxtxV
x
tx
m ∂
Ψ∂
=Ψ+
∂
Ψ∂
−
),(
),(),(
),(
2 2
22
h
h
donde ψ(x,t) es la función de onda de la partícula o del sistema físico. Las funciones de
onda que son solución de la ecuación reciben el nombre de funciones propias. Se trata
de una ecuación diferencial parcial de segundo orden. En este caso está escrita para el
caso unidimensional pero se puede generalizar para más dimensiones. Análogamente a
la física clásica tenemos que 22
2
2
2 )( P
x
i
x
=
∂
∂
−=
∂
∂
− hh , donde P es el operador
momento lineal, y E
t
i =
∂
∂
h donde E es el operador energía.
Si el potencial no depende del tiempo, por separación de variables, )()(),( txtx ϕφ=Ψ ,
podemos escribir la ecuación de Schrödinger independiente del tiempo
)()()(
)(
2 2
22
xExxV
dx
xd
m
φφ
φ
=+−
h
donde E son los valores propios de la energía.
En el caso de que para una partícula concreta se cumpla que E < | V | tendremos que la
partícula ocupa estados ligados y solo algunos valores de E están permitidos por lo que
la energía está cuantizada (Espectro Discreto). Cuando ocurre lo contrario E puede
tomar cualquier valor por encima de | V | (Espectro Continuo).
Por otro lado, a diferencia de la mecánica clásica o del electromagnetismo, en mecánica
cuántica las funciones de onda son complejas. Esto podría suponer un problema ya que
la parte imaginaria de la función de onda no tiene significado físico. Sin embargo,
aunque las funciones de onda contienen toda la información de un sistema que el
Principio de Incertidumbre nos permite conocer, no representan magnitudes físicas que
se puedan medir. La información física medible del sistema nos la da la densidad de
probabilidad, P(x,t)=ψ*(x,t) ψ(x,t) (donde ψ*(x,t) es el complejo conjugado de ψ(x,t).
M.Born, en 1926, postuló esta relación de la siguiente manera
Si en el instante t se realiza una medición para localizar a la partícula asociada con la
función de onda ψ*(x,t) entonces la probabilidad P(x,t)dx de encontrar a la partícula
en una coordenada entre x y x+dx es igual a ψ*(x,t) ψ(x,t)dx. 
18
Por lo tanto, en mecánica cuántica, dada la imposibilidad de poder predecir de forma
determinista el resultado de un experimento, es necesario recurrir a la estadística para
calcular probabilidades y valores promedio. Por ejemplo, dada una magnitud física F
que relacionamos con el operador F(x,p,t), su valor promedio <F(x,p,t)> se calcularía de
la siguiente forma
∫
+∞
∞−
Ψ
∂
∂
−Ψ>=< dxtxt
x
ixFtxtpxF ),(),,(),(*),,( h
∫
+∞
∞−
=ΨΨ 1),(),(* dxtxtx (densidad de probabilidad normalizada)
La desviación típica se calcularía de la siguiente forma
22(),,( ><−><=∆ FFtpxF
Degeneración
En mecánica cuántica degeneración es el fenómeno que ocurre cuando dos o más
funciones propias (o estados propios) de un operador (momento lineal, energía,
posición,…) comparten el mismo valor propio. En el caso de la ecuación de
Schrödinger, por ejemplo, tendríamos degeneración si dos o más funciones de onda que
fuesen solución de la ecuación tuvieran el mismo valor de la energía E. A las funciones
propias que presentan esta peculiaridad se las conoce como funciones propias
degeneradas.
Momento Angular Intrínseco o de Spin
En 1922, Otto Stern y Walter Gerlach observaron como un haz de átomos de plata se
desdoblaba en dos componentes discretas al cruzar un campo magnético no uniforme.
Una componente se desviaba en la dirección y el sentido del campo magnético aplicado
mientras que la otra componente hacía lo propio en sentido opuesto. Como los átomos
son neutros, la única componente de la fuerza que debía actuar sobre ellos era la
paralela al campo aplicado (en este caso escogemos la dirección z de forma arbitraria),
fruto de la interacción entre la intensidad magnética y el momento dipolar
magnético µ
r
,
z
z
z z
B
F µ
∂
∂
=
(donde µz es la componente del momento dipolar magnético paralela al campo).
Según la mecánica clásica se debería obtener una distribución continua en función del
momento dipolar. Sin embargo se obtenían resultados discretos con lo cual se
confirmaba la cuantización.
Por otro lado, el momento dipolar magnético depende del momento angular
orbital al considerar la órbita electrónica de los átomos como una espira por donde
19
circula una cierta intensidad. En el caso del experimento Stern-Gerlach la única
contribución era la de la componente del momento angular en la dirección de la
coordenada z, que para los electrones atómicos está relacionada con el número cuántico
ml = -l,-l+1,…,0,…,l-1,l (el número cuántico l está relacionadocon el cuadrado del
momento angular), el cual puede tomar un número de valores que siempre debe ser
impar. Además, el número atómico de la plata es 47 con lo que su último orbital es s (l
= 0) por lo que ml solo puede valer 0. Si se hace la aproximación que, debido al
apantallamiento de las capas de electrones inferiores con el núcleo, el único electrón que
contribuye a la interacción con el campo magnético es el del último orbital, se esperaría
que los electrones no se desviaran. Sin embargo como ya hemos dicho, el haz deflectado
se desdobla en dos componentes. Este hecho fue confirmado por Philipps y Taylor
(1927) quienes repitieron el experimento con átomos de hidrógeno, los cuales tienen un
único electrón que en su estado fundamental (esto se consigue con temperaturas
relativamente bajas) se encuentra en un orbital s (l = 0, ml = 0).
Estas inconsistencias con los resultados esperados fueron superadas en 1925,
cuando Samuel A. Goudsmit y George E. Uhlenbeck postularon la existencia de un
momento angular intrínseco que llamaron spin. El spin se suele presentar como un
momento angular asociado al giro constante del electrón sobre su propio eje, sin
embargo está visión es inconsistente con la física por lo que el spin debe entenderse
como una propiedad puramente cuántica, característica de las partículas microscópicas,
que no tiene análogo en la física clásica. Su relación con la componente z del momento
magnético dipolar es la siguiente
sBssz mg µµ −=
donde gs es el factor g de spin (que para el electrón se ha comprobado
experimentalmente que vale 2), 22310927,0
2
mA
m
e
B ⋅⋅==
−hµ recibe el nombre de
magnetón de Bohr y ms es el valor propio de la componente z del momento angular de
spin y toma los valores -s,-s+1,…,0…,s-1,s, donde s es el spin asociado a una partícula
(para el electrón s = 1/2 ; ms = ±1/2). De esto se desprende que el incremento de energía
potencial de orientación dipolar que reciben las componentes desdobladas de un haz en
un experimento Stern-Gerlach, viene dado por
2
zBs
zszs
Bg
BBE
µ
µµ ±=−=⋅−=∆
rr
El spin es un propiedad que poseen las partículas a escala microscópica y que afecta a
las propiedades de éstas, pero no tiene equivalente clásico por lo que hay que entenderlo
como un fenómeno exclusivo de la física cuántica.
20
Física Nuclear y de Partículas
1.- El modelo estándar.
Proporciona una teoría coherente de las interacciones fundamentales, válida para las
interacciones electromagnética, débil y fuerte. Ordena, además, la profusión existente de
hadrones (partículas elementales que experimentan la interacción fuerte)
Modelo Estándar de la Física de Partículas
Primera generación Segunda generación Tercera generación
QUARKS
u (Up)
d (Down)
c (Charm)
s (Strange)
t (Top/True)
b (Bottom/Beauty)
LEPTONES
ννe (Neutrino electrónico)
e (Electrón)
ννµµ (Neutrino Muónico)
µµ (Muón)
ννττ (Neutrino Tauónico)
ττ (Tauón)
FUERZAS
BOSONES GAUGE
Electromagnetismo
Interacción Débil
Interacción Fuerte
Gravedad
γγ (Fotón)
W- W+ Z0
Ocho Gluones
Gravitón ?
Interacciones Fundamentales de la Naturaleza
Según el modelo estándar a cada interacción fundamental le corresponden una o varias
partículas bosónicas o bosones (partículas con spin entero). Estas partículas son los
quantums de energía que constituyen los campos causantes de dichas interacciones. Las
cuatro fuerzas de la naturaleza son las siguientes:
Electromagnética: De alcance infinito. Su bosón gauge es el fotón, γ (spin = 1). Es la
responsable de la electricidad y el magnetismo.
Nuclear Débil: De alcance finito ∆x ≈ 2·10-3 fm. Sus bosones gauge son las partículas
W+, W-, Z0 (spin = 1). Es la responsable de las desintegraciones nucleares del tipo β. (Su
unificación con la electromagnética da lugar a la interacción electrodébil)
Nuclear Fuerte: De alcance infinito. Su bosón gauge es al gluón (spin =1). Es la
21
responsable de que los nucleones permanezcan unidos.
Gravitatoria: De alcance infinito. Su bosón gauge es el gravitón pero aún no se ha
encontrado y es objeto de controversia. Es la responsable de las órbitas celestes.
Las leyes de conservación para el electromagnetismo, la interacción débil y la
interacción fuerte son:
Cantidad conservada Fuerte Electro-magnética Débil
Energía Sí Sí Sí
Momento Lineal Sí Sí Sí
Momento Angular Sí Sí Sí
Carga Sí Sí Sí
Número Leptónico Electrónico Sí Sí Sí
Número Leptónico Muónico Sí Sí Sí
Número Leptónico Tauónico Sí Sí Sí
Número Bariónico Sí Sí Sí
Isospín Sí No No1
Componente z del Isospín Sí Sí No2
Paridad Sí Sí No*
C-Paridad o Conjugación de Carga Sí Sí No*
Color No Sí Sí
Sabor Sí Sí No
Inversión temporal Sí Sí Sí *
1 (∆I = ½ Para no leptónicos)
2 (∆Iz = ½ Para no leptónicos)
* (Excepto por la violación poco frecuente en el decaimiento lento del sistema K0, 0Κ )
Partículas Elementales
Según el modelo estándar, la materia ordinaria está formada por fermiones elementales
(spin semientero). Hay dos tipos de fermiones elementales, los leptones y los quarks.
Estos últimos, en la naturaleza, se encuentran formando partículas más complejas
llamadas hadrones. Los hadrones, a su vez, se clasifican en mesones (un quark y un
antiquark) y bariones (tres quarks). A éstas, les hemos de sumar sus correspondientes
antipartículas (partículas idénticas con igual masa y spin pero con la carga eléctrica de
signo opuesto).
En la siguiente tabla aparecen descritas algunas de las propiedades del fotón, de los
leptones y algunos hadrones:
22
Nombre Símbolo
Masa en
reposo
(MeV/c2)
Tiempo
de vida
media(s)
Carga Q Spin s
Número
leptónico
Le
Número
leptónico
Lu
Número
Leptónic
o Lττ
Número
bariónico
B
Paridad
P
Comp. Z
del
isospín Iz
Fotón γ 0 ∞ 0 1 0 0 0 0 - 0
νe ¿0? ∞ 0 ½ +1 0 0 0 - 0
νµ ¿0? ¿∞? 0 ½ 0 +1 0 0 - 0
ντ ¿0? ¿∞? 0 ½ 0 0 0 0 - 0
e- 0,511 ∞ -1 ½ +1 0 0 0 - 0
µ- 105,7 2,2·10-6 -1 ½ 0 +1 0 0 - 0
Leptones
τ- 1777 291·10-15 -1 ½ 0 0 +1 0 - 0
Π+ 139,6 2,6·10-8 +1 0 0 0 0 0 Impar +1
Π0 135 0,9·10-16 0 0 0 0 0 0 Impar 0
Π- 139,6 2,6·10-8 -1 0 0 0 0 0 Impar -1
Κ+ 493,8 1,2·10-8 +1 0 0 0 0 0 Impar +½
Κ0 497,8 8,6·10-11 0 0 0 0 0 0 Impar -½
0Κ 497,8 5,2·10-8 0 0 0 0 0 0 Impar +½
Κ- 493,8 1,2·10-8 -1 0 0 0 0 0 Impar -½
η0 549 2,5·10-19 0 0 0 0 0 0 Impar 0
Mesones
η| 958 >10-21 0 0 0 0 0 0 Impar 0
p 938,3 ∞ +1 ½ 0 0 0 1 Par +½
n 939,6 930 0 ½ 0 0 0 +1 Par -½
Λ0 1116 2,5·10-10 0 ½ 0 0 0 +1 Par 0
Σ+ 1189 8,0·10-11 +1 ½ 0 0 0 +1 Par 1
Σ0 1192 >10-14 0 ½ 0 0 0 +1 Par 0
Σ- 1197 1,5·10-10 -1 ½ 0 0 0 +1 Par -1
Ξ0 1315 3,0·10-10 0 ½ 0 0 0 +1 Par +½
Ξ- 1321 1,7·10-10 -1 ½ 0 0 0 +1 Par -½
Bariones
Ω- 1672 1,3·10-10 -1 ½ 0 0 0 +1 Par 0
Según el Modelo Estándar, toda la materia que observamos está hecha de seis quarks y
seis leptones. Estos quarks y leptones se agrupan en tres familias o generaciones de
cuatro miembros cada una. Los quarks más ligeros, denominados "arriba" (up) y "abajo"
(down) junto con el conocido electrón y su neutrino forman la primera generación. El
quark "extraño" (strange) y el quark "encanto" (charm), que son un poco más pesados
que los anteriores, forman junto con el muón y su neutrino la segunda familia;
finalmente el quark "belleza" (beauty) junto con el recientemente observado quark
"verdad" (truth) y el leptón tau y su neutrino constituyen la tercera y aún incompleta
familia, pues de la existencia del neutrino del leptón tau sólo se tienen pruebas
indirectas. Al nombre que recibe cada tipo de quark se le conoce como sabor.
23
Quark Q
Carga
B
Número
Bariónico
S
‘Strangeness’
C
‘Charm’
B
~
‘Beauty’
T
‘Truth’
D -1/3 1/3 0 0 0 0
U 2/3 1/3 0 0 0 0
S -1/3 1/3 -1 0 0 0
C 2/3 1/3 0 1 0 0
B -1/3 1/3 0 0 -1 0
T 2/3 1/3 0 0 0 1
2.- Números Cuánticos.
Por un lado, a los leptones se les asocia un númeroleptónico ligado a cada generación.
Los leptones de una generación tienen un valor del número leptónico de su generación
igual a 1, mientras que para sus antipartículas este número vale –1, y tienen valores
nulos para los números leptónicos de las otras dos generaciones.
Para los hadrones se define la extrañeza como S = [N(s)-N(s)], donde N(s) es el número
de quarks extraños presentes en un hadrón o en una reacción y N(s) es el número de
quarks no extraños. Análogamente podemos definir encanto, C, verdad, T, o belleza,
B
~
. Se define número bariónico como B = [N(q)-N(q)]/3 donde N(q) es el número de
quarks y N(q) es el número de antiquarks. Usando estos números podemos definir
también la carga, Q = 2[Nu+C+T]/3 – [Nd+S+B]/3 donde Nu y Nd son el número de
quarks “arriba” y “abajo”, respectivamente, y se pueden calcular de forma análoga a S.
Para las partículas elementales se establece, además, una nueva simetría (que no es
exacta): el isospín. El isospín es una magnitud que se comporta igual que el spin. Las
partículas con la misma paridad, S, B, C, B
~
, T y diferente carga reciben el nombre de
multipletes de isospín (tienen igual isospín I pero difieren en la tercera componente de
éste Iz). Se define la hipercarga como
Y = B + S + C + B
~
 + T
Y con ella se puede definir la 3ª componente del isospín
Iz = Q – Y/2
También podemos definir el isospín para núcleos atómicos de masa A, número atómico
Z y N = A – Z de la siguiente manera
Iz = (Z – N)/2
La interacción débil viola la simetría del isospín. Lo mismo pasa con la paridad (paridad
de las funciones de onda de las partículas) o con la c-paridad (paridad respecto la
substitución de una partícula por su antipartícula.
La interacción fuerte, en cambio, no conserva la carga de color o color de los quarks.
24
Todos los quarks pueden estar en uno de los tres estados de color: azul (b), verde (g) o
rojo (r). Los gluones de la interacción fuerte mantienen confinadas las cargas de color
de manera que nunca aparecen cargas del mismo color juntas. En un barión, por
ejemplo, los tres quarks tendrán colores diferentes de manera que la carga de color
resultante será nula (los tres colores juntos, así como el color de una partícula y su
antipartícula, se anulan).
3.- Reacciones Nucleares.
Procesos Nucleares
Los núcleos están compuestos por protones y neutrones, que se mantienen unidos por la
denominada fuerza fuerte. Algunos núcleos tienen una combinación de protones y
neutrones que no conducen a una configuración estable. Estos núcleos son inestables o
radiactivos. Los núcleos inestables tienden a aproximarse a la configuración estable
emitiendo ciertas partículas.
Se ha observado que todos los procesos radiactivos simples siguen una ley exponencial
decreciente. Si N0 es el número de núcleos radiactivos en el instante inicial, después de
un cierto tiempo t, el número de núcleos radiactivos presentes N se ha reducido a
t)(-
0eNN
λ=
donde λ es una característica de la sustancia radiactiva denominada constante de
desintegración.
Para cada sustancia radiactiva hay un intervalo de tiempo fijo Τ1/2, denominado
semivida o periodo de semidesintegración, durante el cual el número de núcleos que
había al comienzo se reduce a la mitad. Poniendo en la ecuación N=N0/2 se obtiene
2ln
2ln
2
1 ⋅== τλ
T
donde definimos τ como vida media.
La ley de desintegración puede deducirse del siguiente modo: si λ es la probabilidad de
T
25
desintegración por unidad de tiempo, la probabilidad de que un núcleo se desintegre en
un tiempo dt es λ·dt. Si hay N núcleos presentes, en el tiempo dt podemos esperar que
se desintegren (λdt)N núcleos. Por tanto, podemos escribir
El signo menos aparece por que N disminuye con el tiempo a consecuencia de la
desintegración. Integrando esta ecuación obtenemos la ley exponencial decreciente.
N0 es el número inicial de núcleos radioactivos presentes en el instante t = 0.
Los tipos de desintegración radiactiva se clasifican de acuerdo a la clase de partículas
emitidas.
Desintegración αα
El elemento radiactivo de número atómico Z, emite un núcleo de Helio (dos protones y
dos neutrones), el número atómico disminuye en dos unidades y el número másico A en
cuatro unidades, produciéndose un nuevo elemento situado en el lugar Z-2 de la Tabla
Periódica.
)2,4()2,4(),( +−−→ ZAZA
Desintegración ββ
Esta desintegración tiene dos tipos de variantes.
Desintegración β-: El núcleo del elemento radiactivo emite un electrón, en
consecuencia, su número atómico aumenta en una unidad, pero el número másico no se
altera. El nuevo elemento producido se encuentra el lugar Z+1 de la Tabla Periódica.
e
epn ν++→ −
e
eZAZA ν+++→ −)1,(),(
Desintegración β+: El núcleo del elemento radiactivo emite un positrón, en
consecuencia, su número atómico disminuye en una unidad, pero el número másico no
se altera. El nuevo elemento producido se encuentra el lugar Z-1 de la Tabla Periódica.
e
enp ν++→ +
e
eZAZA ν++−→ +)1,(),(
26
Desintegración γγ
El núcleo del elemento radiactivo emite un fotón de alta energía (∼MeV), la masa y el
número atómico no cambian, solamente ocurre un reajuste de los niveles de energía
ocupados por los nucleones.
γ+→ ),(),( ZAZA
Captura electrónica
El núcleo del átomo captura un electrón y emite, a continuación, un neutrino
electrónico. Es un proceso alternativo a una desintegración β+. Si en un átomo es
posible una desintegración β+ también será posible un proceso de CA, pero no al revés.
e
nep ν+→+ −
e
ZAeZA ν+−→+ − )1,(),(
Fusión y Fisión
El principio físico de las reacciones de fisión y fusión se explica a partir de la energía de
enlace por nucleón en función del número másico A del núcleo. Los núcleos con una
energía de enlace mayor, 50 < A < 90, son los más estables. Si un núcleo muy pesado se
rompe en dos (fisión), el estado inicial tiene más masa que el estado final, este exceso
de masa se desprende en forma de energía según la fórmula E=mc2. Lo mismo ocurre
cuando dos núcleos ligeros se unen (fusión)
Figura 1 Energía de enlace por nucleón en función del número másico. Fuente:
27
CIEMAT
Fisión
Cuando un núcleo de Uranio 235 es bombardeado con neutrones, aún de baja energía, se
produce una violenta inestabilidad que hace que el núcleo se divida en dos fragmentos
aproximadamente iguales. Una reacción nuclear en cadena es posible porque, aparte de
los dos fragmentos liberados, se emiten neutrones y en este caso particular del Uranio
235 los neutrones son suficientes como para causar una nueva fisión. Con otros núcleos
es frecuente utilizar gran cantidad de energía para producir la fisión. Por ejemplo
elementos tal como el radio o el bismuto necesitan ser bombardeados con partículas alfa
de gran energía (40 Mev). En el otro extremo el Californio 252 (elemento fabricado por
le hombre) produce fisión espontáneamente y no se necesita del bombardeo de
neutrones. El Californio 252 también emite neutrones durante la fisión.
Fusión
Para que los núcleos cargados positivamente superen la repulsión electrostática que
existe entre ellos y se acerquen lo suficiente como para producir reacciones de fusión a
un ritmo adecuado se necesitan temperaturas del orden de los 100 millones de grados. A
esta temperatura los electrones se separan del núcleo y como resultado se tiene un
plasma con los electrones e iones moviéndose independientemente a gran velocidad.
Desde el punto de vista de operación de un primer reactor de fusión, la reacción más
interesante es la del deuterio 2D y tritio 3T (D-T)
El deuterio y el tritio son dos isótopos del hidrógeno. El deuterio es estable y muy
abundante en el agua. El tritio es radioactivo y no existe en la naturaleza pero puede
producirse a gran escala mediante la irradiación de litio con neutrones. El principal
producto de esta reacción de fusión es el helio que no es radioactivo, aunque el neutrón
producido a elevadas energías puede activar los materiales que envuelven el reactor. Las
condiciones para obtener un importante ritmo de fusión D-T son las más fáciles de
conseguir,los reactantes deben tener una energía cinética de unos 10 keV
(correspondiente a una temperatura ligeramente superior a 100 millones de K).
Existen otras reacciones posibles, pero las condiciones necesarias para que se produzcan
son más exigentes que la reacción D-T, por eso se contemplan como las reacciones de
los reactores de segunda generación. La reacción deuterio-deuterio (D-D)
tiene la ventaja de no utilizar tritio y de no producir neutrones de alta energía, pero la
temperatura necesaria para que la sección eficaz sea significativa es 10 veces mayor que
la necesaria para la reacción D-T. La reacción deuterio-helio 3 (D-3He)
28
es muy interesante porque no produce ni tritio ni neutrones. La elevada energía del
protón puede recuperarse por conversión directa a energía eléctrica, con eficiencias del
80%. Los principales inconvenientes son la elevada temperatura necesaria, sobre los 50
keV, y la escasez de 3He en la Tierra, aunque es posible obtenerlo en la luna.
29
Bloque II:
Astrofísica y Cosmología
30
Física Estelar
1.- Protoestrellas.
El proceso de formación estelar aún no está bien comprendido debido
fundamentalmente a dos razones:
• Las estrellas en los primeros estadios de formación son poco luminosas y
difíciles de observar.
• Emiten luz que se concentra en intervalos de radio e infrarrojo, con lo que no
se han podido observar hasta hace 20 años (que es cuando aparecieron
nuevos telescopios y satélites artificiales especializados para esas
frecuencias).
También existen hechos como los brotes masivos de formación estelar, que se dan en
algunas galaxias y que aún no se han podido explicar.
En nuestra galaxia, cada año, aproximadamente una masa solar de gas y polvo se
convierte en nuevas estrellas.
Una estrella, a grandes rasgos, se forma a partir de una nube de gas y polvo que
comienza un proceso de contracción a causa de:
• Inestabilidades gravitatorias internas.
• Explosión de alguna supernova cercana.
El gas, o disco protoestelar, es en su composición un 80% H y un 20% He,
aproximadamente. Eso sí, existen trazas de otros muchos elementos y/o compuestos
más complejos (denominados de forma genérica metales) que en su totalidad
representan bastante menos de un 1%. Esta composición es en realidad muy similar a la
composición general del propio universo.
Cuando el gas comienza a contraerse se forma un núcleo en el que la temperatura
comienza a aumentar. Este proceso continua hasta que la temperatura en el núcleo es
suficiente como para iniciar y sostener la reacción de fusión del H que da lugar He. Esto
ocurre a una temperatura del orden de 106 K. En ese momento las reacciones de fusión
son capaces de sostener el peso del gas que se contrae. Así una estrella es, en realidad,
un delicado equilibrio entre la presión de radiación de las fusiones nucleares (que
tienden a deshacerla) y la fuerza gravitatoria (que tiene a contraerla).
La masa mínima para formar una estrella es de 0.05 – 0.08·Msol. Júpiter tiene
0.001·Msol, así si tan sólo hubiera sido aproximadamente un orden de magnitud más
masivo habríamos tenido un sistema estelar doble y, probablemente, la vida no se
hubiera podido desarrollar en la Tierra.
31
2.- Estructura interna.
Una estrella se basa principalmente en el equilibrio hidrostático, es decir, no pueden
existir aceleraciones notables en la masa estelar. Esto significa que en un elemento de
masa dado todas las fuerzas que actúan sobre él se compensan.
Una estrella tiene una estructura interna que varía en función del estadio evolutivo en el
que se encuentre. En el caso del Sol se puede dividir en cinco partes principales:
• Núcleo
Depende de la estrella, pero suele rondar los 107 K de temperatura. Es donde se
producen las reacciones de fusión que aguantan la estrella e impiden que
colapse.
H + H → He + γ
• Zona Radiativa
Zona en la que los fotones generados en el núcleo interaccionan con la materia
estelar, perdiendo energía (hasta hacerse visible, sea absorbido o dispersado).
Recorrido libre medio de los fotones es de 1-2 cm. Pueden tardar hasta 2
millones de años en lograr salir del Sol.
• Zona Convectiva
Zona en la que el material caliente asciende y transmite energía al entorno,
calentándolo. Una vez se ha enfriado, se hunde. (Granulación solar,
Supergránulos y celdas de convección).
• Fotosfera
Es lo que vemos al mirar el Sol (u otra estrella). Es donde los fotones se liberan
y donde se forma el espectro de la estrella, que nos proporciona información
sobre:
1. Temperatura superficial (Sol: 5800 K)
2. Composición química.
3. Gravedad superficial.
4. Campos magnéticos.
5. Velocidad de rotación.
6. Turbulencias.
• Cromosfera
Centenares de veces menos luminosa que la fotosfera, la cromosfera es una capa
de la atmósfera estelar en la que hay material ionizado y la temperatura (virtual)
asciende a 104 K.
• Corona
Es un millón de veces menos luminosa que la fotosfera, no tiene forma regular y
es un indicador de la actividad estelar. Aunque aún no se conoce bien la
conexión.
Entre la cromosfera y la corona se producen intercambios de materia a través de
las protuberancias.
32
3.- Clasificación.
Existen diferentes métodos de clasificación en función de las diversas características
físicas de las estrellas, pero las dos más comunes son:
• Clasificación espectral (de Harvard).
Basada en las líneas de Balmer de H, He neutro, Fe neutro, doblete H y K del
Ca, bandas de TiO.
Oh, Be A Fine Girl, Kiss Me
O B A F G K M
Tempranas Tardías
Calientes Frías
TIPO TEMPERATURA COLOR ABUNDACIA OTROS
O 30.000 Azul < 1 º/oo Elementos muy ionizados.
B 11.000 – 20.000
Blanco –
Azulado
1 º/oo Rigel, Spiga
A 7.500 – 11.000 Blanco 6 º/oo Sirio, Vega
F 6.000 – 7.500 Cremoso 1 % Líneas metálicas
G 5.000 – 6.000 Amarillo 10 %
Sol. Metales neutros. Bandas
moleculares.
K 3.500 – 5.000 Naranja 40 % Arturo, Aldebarán. At. neutros
M 2.200 – 3.500 Rojo 50 % Antares, Betelgeuse.
Esto responde al 99.5 % de todas las estrellas de la galaxia.
• Clasificación MK.
También se clasifican según su luminosidad. Es la clasificación en clases de
luminosidad o, también llamada, de Morgan-Kinan.
CLASE DESCRIPCIÓN
I Supergigantes
II Gigantes brillantes
III Gigantes
IV Subgigantes
V Secuencia principal
VI Subenanas brillantes
VII Enanas blancas
33
La vida de una estrella depende drásticamente de su masa inicial. La siguiente tabla
muestra la vida media de una estrella y su posible final, en función de su masa.
MASA ETAPA FINAL COMENTARIOS
M < 0.08 Enana Marrón No llega a combustionar H.
0.08 ≤ M ≤ 0.26 Enana Blanca Convectivas. Permanecen homogéneas. Evoluciónmuy lenta. Convierten todo el H en He.
0.26 < M < 1.5
Nebulosa planetaria con
Enana Blanca
Pasa por Fase gigante gaseosa. Produce el Flash del
Helio.
3 ≤ M < 15 Supernova
Núcleo de carbono degenerado. Produce el Flash del
Carbono.
M ≥ 15
Supernova con Agujero
Negro o Estrella de
Neutrones
Núcleo de hierro rodeado de capas de combustión.
34
Ecuación de Equilibrio Hidrostático
Muchas estrellas permanecen de forma evidente en fases de muy larga
duración a lo largo de su evolución. La materia estelar no sufre grandes
aceleraciones, lo que significa que para un elemento de masa dado, todas las
fuerzas que actúan sobre éste se compensan las unas a las otras. Este tipo de
equilibrio mecánico se denomina “Equilibrio Hidrostático”, ya que este mismo
principio es el que gobierna la presión estratificación en, por ejemplo, una balsa
de agua.
Como aproximaciones consideramos estrellas gaseosas, sin rotación, sin
campos magnéticos y sin ningún tipo de compañeros cercanos. De esta forma
las únicas fuerzas a considerar son la de la gravedad y la debida al gradiente de
presión.
Como hablamos de presiones, usaremos la 2ª ley de Newton por unidad de
superficie.
2
2
dt
rd
S
m
S
F
i
i ⋅=∑
Trabajando para un elemento de masa dm y una cáscara esférica de grosor dr,
obtenemos:
frad = dr
dr
dP
⋅−
El signo viene para compensar el que si r aumenta la presión disminuye, por lo
que la derivada es negativa, mientrasque la f resultante ha de ser positiva.
fgra = 2
2
4 r
r
dmmG
π
⋅⋅−
Substituyendo (2) y (3) en (1), obtenemos:
2
2
24 44 dt
rd
r
dm
dr
dr
dP
r
dmGm
⋅=−
⋅−
ππ
Como lo que queremos es el equilibrio hidrostático, no pueden haber
aceleraciones, así las derivada de segundo orden de r respecto el tiempo ha de
ser 0. Con lo que queda:
dr
dm
r
Gm
dr
dP
⋅
−
=
44π
(1)
(2)
(3)
(4)
35
Solo nos queda saber como varía m con r. Pero es sencillo ya que basta con
evaluar la masa que hay en nuestra cáscara de material.
m = ρ·V
dm = ρ · dV
dm = ρ · 4πr2dr
ρπ 24 r
dr
dm
=
Substituyendo (5) en (4) llegamos al resultado final:
ρ⋅
−
=
2r
Gm
dr
dP
Donde se ve claramente el equilibrio entre las dos fuerzas.
Esta es la forma Euleriana de describir el equilibrio hidrostático (i.e. con r como
variable independiente). Si tomamos m como variable independiente, en lugar
de r obtenemos la condición de equilibrio hidrostático en la formulación
Lagrangiana multiplicando (6) por ∂ ∂ = ⋅
−
r m r4 2
1
π ρc h :
∂
∂
= −
P
m
Gm
r4 4π
(5)
(6)
36
Ecuaciones de Friedmann
Los modelos FRW consideran la distribución de energía como un fluido perfecto.
Esencialmente todos los fluidos perfectos de relevancia en cosmología obedecen una
ecuación de estado del tipo,
p = wρ
donde w es una constante independiente del tiempo.
Resolviendo las ecuaciones de Einstein para un fluido perfecto obtenemos,
χρ ε
χ
ε
= +
=
−
−
+
3
2
2
2
2
2
a
a
p
a
a
a
a
( & )
&& &
A partir de (1) y sumándole tres veces (2) obtenemos,
χ ρ + =
−
3
6
p
a
a
b g &&
Que recibe el nombre de ecuación de Raychaudhuri, para los modelos FRW.
Sumando (1) y (2) obtenemos,
χ ρ ε( ) ( & )
&&
+ = + −p
a
a
a
a
2 2
2
2
Y derivando (1) respecto al tiempo:
χρ ε& &( & )
&
&&=
−
+ +
6 6
3
2
2a
a a
a
a
a
Así, a partir de (4) y (5) obtenemos,
&
&
ρ ρ= − +3 p
a
a
b g
La ecuación (6) también se obtiene directamente de imponer la conservación de la
energía ( ∇ =µ
µT0 0 ).
Toda la información está en las ecuaciones (1) y (2), y también en (1) y (6). Se puede
probar que (2) es deducible a partir de (1) y (6):
(1) • (5) (4) (2)
(1)
(2)
(3)
(4)
(5)
(6)
(6) (1)
37
Así, a las ecuaciones (1), (3) y (6) se les llama Leyes de Friedmann, a pesar de que
sólo dos son linealmente independientes:
&
&
ρ ρ= − +3 p
a
a
b g
χ ρ + =
−
3
6
p
a
a
b g &&
χρ
ε
=
+3 2
2
&a
a
c h
Donde ε es el llamado índice de curvatura, que puede tomar los valores –1, 0 y 1
según se trate del caso abierto, plano o cerrado respectivamente.
38
Derivación clásica de las Ecuaciones de Friedmann
La ecuación de Friedmann describe la expansión del universo, por lo que se trata de una
ecuación muy importante en Cosmología. Una tarea rutinaria para cualquier cosmólogo
es la de resolver esta ecuación haciendo uso de diferentes parámetros y condiciones
referentes al material que contiene el Universo.
Para deducirla consideraremos un observador que está en un medio, con una densidad
de masa ρ, en expansión uniforme. Como el Universo aparece igual en cualquier parte
podemos considerar que el centro de éste es un punto cualquiera.
Ahora imaginemos una partícula de masa m a distancia r de este centro. Esta partícula,
sólo notará la fuerza gravitatoria debida al material que se encuentra a un radio menor.
Así ese material tendrá una masa total M r= 4 33πρ , con lo que contribuirá con una
fuerza de:
F
GMm
r
G rm
= =2
4
3
π ρ
Con lo que nuestra partícula tendrá una energía potencial,
V
GMm
r
G r m
= − = −
4
3
2π ρ
Mientras que su energía cinética será,
T mr=
1
2
2&
Ahora bien, podemos aplicar la conservación de energía y decir que la suma de energía
potencial y cinética de la partícula es una constante U (que no tiene porque ser la misma
para todas las partículas). Así,
U T V mr G r m= + = −
1
2
4
3
2 2&
π
ρ
Esta ecuación nos da la evolución de la separación r entre dos partículas cualquiera.
Ahora viene el punto crucial de este argumento. La clave está en recordar que el
Universo es homogéneo, lo cual quiere decir que todo lo derivado hasta ahora es válido
para cualquiera de los dos puntos, el central o el que está a distancia r. Esto nos permite
cambiar a un sistema de coordenadas diferente, denominado sistema de coordenadas
comóviles. Estas coordenadas, simplemente, están ligadas a la propia expansión del
medio. Como la expansión es uniforme, la relación entre la distancia real 
r
r y la
distancia comóvil, que llamaremos 
r
x , se puede escribir de la siguiente manera:
r r
r a t x= ( )
(1)
(2)
39
Donde la propiedad de homogeneidad nos asegura que a es una función que tan sólo
depende de t. Una forma de visualizar esto es pensar en unas coordenadas asociadas a
una rejilla que se expande con el tiempo.
Al sistema original de coordenadas 
r
r se le llama sistema de coordenadas físicas.
La cantidad a(t) es crucial y recibe el nombre de factor de escala del universo y mide
la tasa universal de expansión. Así, si substituimos la ecuación (2) en la (1), podemos
reescribir la conservación de la energía en función del parámetro de expansión:
U ma x G a x m= −
1
2
4
3
2 2 2 2&
π
ρ
Cabe recordar que &x = 0 , por la definición de coordenadas comóviles. Multiplicando
cada término de la ecuación por 2 2 2ma x y reagrupando términos obtenemos:
&a
a
G kc
a
F
HG
I
KJ = −
2 2
2
8
3
π
ρ
Donde kc U mc x2 2 22= − .
Esta es la forma estándar de la ecuación de Friedmann.
En esta expresión k debería ser independiente de x, tal y como lo son los otros términos
de la ecuación, ya que si no la homogeneidad no se nos aseguraría. La única forma de
conseguir esto es que U ∝ x2. Notar que es la propia condición de homogeneidad la que
nos exige que la cantidad U, a pesar de ser constante para una partícula dada, cambie si
la miramos a diferentes separaciones x.
Finalmente, podemos observar que k es también independiente del tiempo, con lo cual
es una constante que no varía ni en el tiempo ni en el espacio, y tiene unidades de
[longitud]-2. Un universo en expansión tiene una única k, que no cambia en toda la
evolución. Esta constante nos dirá, en realidad, cuál es la geometría del universo, por lo
que se la llama curvatura.
40
Definiciones de Parámetros Cosmológicos y Relaciones
Constante de Hubble actual: H
a
a0
0
0
=
&
Función de Hubble: H
a
a
=
&
Densidad Crítica: ρ
χc
H
=
3 0
Parámetro de Densidad: Ω =
ρ
ρc
Función de Deceleración: q
aa
a
=
− &&
&2
ρ < ρc Ω0 < 1 ε = -1 q0 < ½ Abierto
ρ = ρc Ω0 = 1 ε = 0 q0 = ½ Plano
ρ > ρc Ω0 > 1 ε = +1 q0 > ½ Cerrado
Si p0 ≈ 0 (universo pulverulento) tenemos a partir de la segunda ley de Friedmann:
−
=
&&a
a
0
0
06
χ
ρ
−
= = =
a a
a H
q0 0
0
2
0
0
2
0
06 2
&&
&
χρ Ω
Es decir, en los modelos FRW de universo pulverulento q0 y Ω0 no son independientes:
Ω0
02
= q
41
Modelo de Friedmann-Robertson-Walker
Consideraremos nuestro espacio-tiempo del estilo RxΣ, donde R representa la dirección
temporal y Σ es una variedad diferencial tridimensional homogénea e isótropa.
Partiendo del Principio Cosmológico, entendemos que la isotropía da lugar a invarianza
bajo rotaciones, y la homogeneidad da invarianza bajo traslaciones. Así homogeneidad
e isotropía implican un espacio que tiene el máximo número posible de vectores de
Killing (i.e. un espacio máximamente simétrico). Así nuestra métrica puede ser:
ds dt a t u du duij
i j2 2 2= − + ( ) ( )γ
Aquí, t es una coordenada de tiempo, (u1, u2, u3) son las coordenadas en Σ y γ ij es la
métrica máximamente simétrica en Σ. La función a(t) se conoce como el factor de
escala y nos da una idea de como “de grande” es la hipersuperficie Σ en el tiempo t. Las
coordenadas usadas aquí se conocen como coordenadas comóviles, ya que la métrica
no posee términos cruzados del tipo dt·dui y las componentes de tipo espacio son
proporcionales a una única función de t. Así, un observador que permanezca a ui
constante se denomina observador comóvil. Sólo un observador comóvil verá el
universo realmente isótropo; de hecho,en la Tierra no somos “muy comóviles” y como
resultado observamos una anisotropía dipolar clara en el fondo cósmico de microondas
como resultado del efecto Doppler debido al movimiento propio de la Tierra.
Si el espacio es máximamente simétrico, será con total seguridad esféricamente
simétrico. Con lo que podemos reescribir nuestra métrica en coordenadas esféricas:
ds dt a t e dr r d dr2 2 2 2 2 2 2 2 2= − + + + ⋅( ) ( sin )( )β θ θ φ
Solucionando para un espaciotiempo esféricamente simétrico obtenemos un β(r):
β( ) ln( )r kr= − −
1
2
1 2
Lo cual, substituyendo en (1) nos da lugar a la métrica de Robertson-Walker:
ds dt a t
dr
kr
r d d2 2 2
2
2
2 2 2 2
1
= − +
−
+ + ⋅
L
NM
O
QP( ) ( sin )θ θ φ
Cabe observar que el parámetro k es de gran relevancia. Tan sólo hay tres casos de
interés. k = -1, k = 0 y k = +1. El primero corresponde al caso de curvatura negativa
constante en Σ y se llama abierto; el segundo caso corresponde a curvatura nula y es el
denominado plano; y el tercero y último corresponde al caso de curvatura positiva
constante, que se llama cerrado.
( 1 )
42
Chronology of the Universe
The following diagram illustrates the main events occurring in the history of our
Universe. The vertical time axis is not linear in order to show early events on a
reasonable scale. The temperature rises as we go backwards in time towards the Big
Bang and physical processes happen more rapidly.
43
Comienzos
Con las invasiones bárbaras y la caída del
Imperio Romano puede decirse que el
pensamiento de la civilización y la cultura
antigua - los restos del Imperio - es más lenta en
la zona oriental. La sabiduría clásica no muere
ahí, sino que se va al exilio. Las obras griegas
son traducidas al sirio primero y árabe después,
en Bagdad. Así, es como la ciencia árabe tiene
un gran surgimiento a partir del siglo IX y,
algunas centurias después, maravillará al mundo
cristiano. La cultura islámica, y junto a ella el
idioma árabe, se propaga, vía el norte de Africa,
hasta la península ibérica en occidente y hasta
China por el oriente. La propagación de los
números hindúes hecha por los árabes en el
siglo IX a través de la obra del persa Mohamed
ibn Musa alkhawariznai es un ejemplo. La lista
de los grandes sabios islámicos es enorme. Uno
de los grandes es al-Biruni (973-1048) que,
entre otras cosas discute la rotación de la tierra
en torno a su propio eje, la explicación de las
fase de la luna y también formula la hipótesis
del movimiento de nuestro planeta en torno al
sol.
Otro ejemplo es al-Hazen (965-1038) quien
hace importantes contribuciones a la óptica
demostrando poseer una habilidad experimental
superior a los griegos. Su obra es más tarde
enriquecida por al Farisi (c.1300) y traducida al
latín, se estima que influirá en los estudios de
óptica hechos por Kepler tres siglos después.
Los árabes también ampliaron la geometría de
los griegos. En astronomía la contribución
principal que se conoce se produce en el
Califato de Córdoba (en esa época la España
musulmana es el país más poblado y próspero
de Europa) y en particular en la ciudad de
Toledo. En esta ciudad al-Zargali construye las
famosas “tablas toledanas” (1080) que dan la
posición de las estrellas. Además traducen,
estudian y propagan el ALMAGEST de
Tolomeo (siglo II) que da una visión
geocéntrica del Universo.
Tal vez la reconquista de Toledo (1085) por los
cristianos pueda considerarse como un punto de
partida para la recuperación de la cultura
abandonada. Allí mismo en Toledo se forma
una escuela de traductores - venidos de lugares
tan lejanos como Austria, Inglaterra, Bélgica e
Italia - los que se dedican especialmente a
traducir del árabe al latín escritos sirios,
hebreos, árabes y caldeos. La avalancha cultural
que comienza a infiltrar occidente
(principalmente por España, pero también por
Sicilia, Provenza y Siria) provoca la irrupción
de la cultura griega y en particular del mundo
ideológico de Aristóteles.
Esto último plantea la necesidad de lograr
compatibilizar en una síntesis armónica el
pensamiento aristotélico y el cristiano, obra
cuyo principal ejecutor es el dominico Santo
Tomás de Aquino (1225-1274).
Mucho más tarde se harían traducciones directas
del griego al latín que parcialmente modificaron
la imagen del mundo griego y el pensamiento de
Aristóteles, al punto que suele hablarse del
“Aristóteles medieval” (la versión árabe) para
distinguirla del Aristóteles que surgió
directamente de fuentes griegas obtenidas en
pleno Renacimiento.
Nuevos vientos
Érase una vez, hace mucho tiempo, un grupo de
hombres atrevidos que comenzó a recuperar, y a
crear a partir de los recuperado, parte de lo que
había existido en aquel remoto pasado que los
bárbaros habían destruido y que el tiempo había
enterrado para la mayoría. Habían subsistido
ciertamente, pequeños y recónditos centros de
cultura durante la Edad Oscura. Y como ocurre
normalmente durante esos períodos de cambio,
había un poco de libertad, con flujos y reflujos,
dentro de un marco restrictivo dominante. Fue
en aquel período que nació Nicolás Copérnico.
Nicolás Copérnico (1473-1543)
Copérnico estudió por varios años en su propio
país, Polonia, especialmente en la Universidad
de Cracovia, que es donde se cree que concibió
las ideas que le harían pasar a la historia. Más
tarde, su tío y protector lo envió a estudiar a
Italia al mejor centro de derecho (Ley Canónica)
de la época, Bolonia. Después de Bolonia
estudió en Padua y Roma para finalmente
graduarse en Ferrara. Copérnico ingresó en
Bolonia un año antes del primer viaje de Colón.
Una idea del ambiente universitario en la
Universidad de Bolonia en esa época lo da la
organización que ella tenía. Al contrario que en
la importante Universidad de París, donde el
gobierno residía en la asociación de profesores,
en Bolonia el rector era elegido por los
estudiantes y, aunque debía actuar según las
recomendaciones de un consejo, en última
instancia su autoridad provenía de la asamblea
de estudiantes.
La atmósfera pública la daban personajes como
el papa Borgia (Alejandro VI) a quien se le
atribuye la paternidad de Lucrecia y César
Borgia. La figura de este último, y sus
~ Breve Historia de la Cosmología Clásica ~
44
actuaciones, fue la fuente de inspiración de “El
Príncipe” de Nicolás Maquiavelo. También en
esa época el fogoso orador Savonarola intentaba
en Florencia establecer una rara mezcla de
teocracia con visos democráticos. Su destino fue
la hoguera.
Copérnico tuvo entre sus profesores a uno de los
grandes eruditos en la cultura helénica y juntos,
profesor y discípulo, observaron el cielo
tratando de perfeccionar el complicado sistema
de deferentes y epiciclos de Tolomeo (referente
al movimiento de los planetas, la luna y el sol en
torno a un mismo centro: la tierra).
Después de varias tormentas y amotinamientos
que casi le resultaron fatales, Colón se
encontraba abandonado en una pequeña cueva
en Jamaica, cercano a su triste fin, el año en que
Nicolás Copérnico se graduaba con el diploma
de Doctor en Ley Canónica en Ferrara.
Terminados sus estudios se instaló en el
fortificado castillo de Heilsberg. Fue ahí donde
trabajó en detalle sus ideas originales de los
tiempos de Cracovia que le permitirían
reformular totalmente la astronomía
describiendo el universo con el sol al centro. Al
poner por escrito sus ideas (1512) en breve
tratado titulado “Pequeño comentario”' sabía
que su obra subvertía las ideas de la época.
Tuvo la precaución de publicar solo unas pocas
copias, las que repartió entre sus amigos de más
confianza. Nicolás aún no tenía 40 años.
 Pocos años después el mundo religioso de
Europa se remecía hasta sus bases al iniciarse el
quiebre de la unidad de la Iglesia (lo que se
conoce como la Reforma) cuando en 1517
Lutero lanza sus 95 tesis contra las
indulgencias.
Tal vez una generación antes las ideas de
Copérnico habrían pasado sin causar un
escándalo teológico, pero en ese período no
estaban los ánimos para aceptar cambios a las
creencias tan largamente establecidas. Aun así
por décadas elVaticano no tomó una posición
clara y decididamente en contra, al punto que el
papa Clemente VII le pidió a Copérnico (1530)
que describiese con más detalle su teoría.
Lutero, en cambio, lo atacó desde el comienzo.
Es una ironía de la historia que, con el tiempo,
fue en las regiones protestantes donde primero
se propagaría y aceptaría la teoría heliocéntrica
de Copérnico.
Copérnico revisaba y revisaba su gran
manuscrito y se resistía a publicarlo sabiendo la
ola de críticas que iba a levantar en filósofos y
clérigos, y el peligro que eso implicaba. Su
obra, conocida como “Revoluciones”' (De
Revolutionibus Orbium Coelestium) fue escrita
y corregida por su autor durante los últimos
treinta años de su vida sin decidirse a lanzarla a
la luz. El temor a la represión lo inhibía.
Cuando sintió que ya se le acercaba su fin tomó
la precaución de dedicárselo al papa, Pablo III,
invirtiendo gran esfuerzo en esa dedicatoria. Se
dio incluso el trabajo de desenterrar nombres de
algunos griegos clásicos que ya habían
especulado que el sol sería el centro del
universo. El libro recién impreso, llegó a manos
del papa al tiempo que Copérnico fallecía. En
Roma recién se había instituido la Inquisición y
en otro continente se había fundado la ciudad de
Santiago de Extremadura.
Copérnico usó crudas y, a veces, erradas
observaciones hechas por otros, como parte de
la fundamentación de su teoría y por eso se le ha
acusado de astrónomo mediocre. También se ha
dicho que Colón fue un mediocre navegante. Lo
esencial en ambos casos es el espíritu de
innovación llevado exitosamente a la práctica.
Este espíritu de renovación, de búsqueda de
formas nuevas, esa creatividad, dominante en
los siglos XV y XVI es lo que caracteriza ese
complejo movimiento revolucionario llamado
El Renacimiento.
Una nueva estrella para revoluciones.
Tenía 26 años el inquieto danés cuando vio
aparecer un punto extremadamente brillante en
el cielo. Llegó a brillar tanto la estrella nova de
1572 que podía verse de día.
En ese momento Johannes Kepler era un niño
debilucho de solo un año, que había nacido
prematuramente de una modesta familia
alemana. Shakespeare como Galileo Galilei eran
niños de 8 años mientras Miguel de Cervantes,
de 25, recién se había recuperado de las heridas
de la batalla de Lepanto que le imposibilitaron
definitivamente su mano izquierda. En Nápoles,
el dominico Giordano Bruno comenzaba a tener
sus primeras dudas teológicas.
Con su juventud y amplios estudios, el danés
Tycho Brahe pudo demostrar que esa estrella
estaba más allá de la luna, contrario a la
explicación generalizada. Con esta observación
sólida y precisa Brahe echó por tierra la
hipótesis aristotélica de que “la esfera de las
estrellas fijas” era permanente e inmutable. El
interés que despertó el razonamiento de Brahe
ayudó bastante a establecer la teoría de
Copérnico planteada en Revoluciones. Aun así
faltaba bastante para que su aceptación fuese
general.
La fama de Brahe indujo al rey de Dinamarca a
cederle una isla cerca de Copenhage para que
instalara un observatorio propio. El observatorio
fue provisto de excelente instrumental y muchos
45
asistentes, lo que le permitió llevar a cabo una
empresa de increíble paciencia y empuje
durante 20 años observando la posición de los
objetos celestes - en particular de los planetas -
con una precisión desconocida hasta entonces.
Estudiando en la universidad de Pisa, Galileo se
distinguió antes que nada por su inclinación y
talento para las matemáticas y los experimentos
físicos, pero también por su hábito de discutir
con sus profesores y poner en tela de juicio lo
que se esperaba que fuese aceptado de acuerdo
al principio de autoridad tan en boga en la Italia
del siglo XVI. Abandonó la universidad sin
título alguno en 1585. Después de varios años se
instaló como profesor en la Universidad de
Padua, República de Venecia, por casi dos
décadas.
Kepler poseía una florida imaginación.
Aprovechando los conocimientos que
clandestinamente le enseño su profesor en
Tübingen sobre las ideas de Copérnico, escribió
un libro donde relaciona el tamaño de las órbitas
de los planetas en base a ingeniosas
proporciones geométricas. Su libro lo hizo
famoso a los 25 años de edad (1596) y eso le
permitió establecer contacto apistolar con
Galileo y Brahe. En una carta de Galileo a
Kepler el primero le confiesa haber “aceptado
las ideas de Copérnico desde hace muchos
años”, pero agrega que nunca se ha atrevido a
decir tanto como eso en letra de molde. En
efecto, desde la muerte de Copérnico se había
ido haciendo cada vez más peligroso avanzar o
defender ideas que estuviesen en desacuerdo
con la doctrina oficial. Esta intolerancia poco a
poco pasó a invadir asuntos científicos
llegándose a incluir Revoluciones en el Indice
de libros prohibidos.
La cultura contra las prohibiciones.
Un gran difusor del sistema de Copérnico fue el
dominico Giordano Bruno. Bruno recorrió toda
Europa propagando sus ideas y escapando a la
persecución que en su contra provocaba con sus
libros, panfletos y disputas. Bruno defendía la
idea de que el mundo era infinito, el sol era tan
solo una estrella más, y todas las estrellas
poseían planetas a su alrededor. Además
predicaba una suerte de ideas antiaristotélicas y
antimetafísicas. Su vida fue una huida
permanente. Apresado por la Inquisición en
1592, fue condenado a la hoguera ocho años
más tarde, sellando el agitado siglo de
Copérnico. Bruno, más que un mártir de la
ciencia, lo fue de la libertad de expresión.
Con la muerte del rey de Dinamarca Tycho
Brahe se vio forzado a emigrar a Praga (con su
observatorio) en el preciso momento en que
Kepler buscaba trabajo, ya que en Graz, donde
trabajaba Kepler, las autoridades comenzaban a
exigir ser católico.
Kepler fue el primer gran científico protestante.
Temeroso de ser expulsado, o algo peor, Kepler
llegó a trabajar a Praga como asistente principal
de Brahe. Pero Tycho vivió solo unos pocos
meses más, quedando el joven Kepler a cargo
del magnífico instrumental y de las cuidadosas
observaciones estelares que por 20 años había
acumulado el danés.
Kepler tuvo la osadía de aceptar lo que los datos
numéricos de Brahe indicaban y romper así con
una tradición de más de dos mil años: estableció
que los planetas giran en torno al sol en órbitas
elípticas obedeciendo leyes bien precisas que
han pasado a la historia. Su obra “Nueva
Astronomía”' se publicó en Praga (1607) cuando
tenía 36 años. Ella fue un golpe mortal a la
visión pitagórica-platónica que planteaba la
necesidad de la “perfección” de los
movimientos celestiales (circunferencias), que
aún el gran Copérnico había aceptado a priori.
Fructífero resultó el forzado exilio de Kepler.
Estando Revoluciones en el Indice, a Galileo se
le prohibió expresamente defender esas ideas.
Pero Galileo, que no se distinguía por su
docilidad, utilizó el resquicio legal de escribir
un libro en forma de diálogo entre tres
personajes “Diálogos sobre los dos sistemas del
mundo”, el sistema oficialista de Tolomeo y el
copernicano. Los diálogos pueden considerarse
como el primer manifiesto de la nueva ciencia.
Aparte de ser una valiosa obra científica, los
diálogos fueron escritos en italiano de modo que
pudieron alcanzar una audiencia mucho mayor
en el país.
No dejando explícito quién tenía la razón logró
pasar la censura, aunque era claro para dónde se
inclinaba la balanza. Pero tan pronto salió el
libro a la publicidad (1632) Galileo fue acusado
de desobediencia y de haber obtenido permiso
de impresión por medios ilícitos. Tenía ya cerca
de 70 años este viejo luchador cuando tuvo que
vérselas con la Inquisición: fue recluido e
interrogado intermitentemente durante meses,
aunque aparentemente no fue víctima de otro
tipo de tortura física (común es esos años). Fue
sentenciado a cadena perpetua el 22 de Junio de
1633 pero, dada su avanzada edad, se le
concedió una especie de arresto domiciliario.
46
De Galileo a Kepler
Padua, Agosto 4, 1597.
Me felicito por la suerte excepcional de tenerlo
como camarada en la búsqueda de la verdad.

Continuar navegando