Logo Studenta

TG Jeicot Delgado

¡Este material tiene más páginas!

Vista previa del material en texto

Análisis de las propiedades de la cromodinámica cuántica a partir de la
comparación con las propiedades de la electrodinámica cuántica.
Delgado Jeicot, Munevar Edwin
Universidad Distrital “Francisco José de Caldas”, Facultad de Ciencias y Educación
Grupo de Física e Informática “FISINFOR”
The Quantum Chromodinamics or QCD, born as an attempt to know the behavior and the
structure of the nucleus, where the atomic model proposed did not explain how could exist a
state such a proton-neutron inside of those. This works pretend to be an introduction to QCD
for undergraduate students, this going to be achieve by the comparison between this and the
most succesful quantum field theory, the quantum electrodinamics or QED.
Here we will build a picture like a resume, where the main properties and differences
from those two theories are going to be displayed qualitatively, one of this properties is the
asymtotic freedom, a crucial property that trans QCD into an appropriate theory for the strong
interaction which bind the proton and neutron. Aside of this, we are going to do a short remark
about the presedent theories who helped to build the strong theory, from the Yukawa’s theory
to Politzer, Wilczek and Gross theory who after a rigorous effort found that QCD is the most
appropriate theory for surprise of the scientific community.
Palabras clave: Quantum Chromodinamics, Quantum Electrodinamics, atomic models,
asymtotic feedom.
Desde las primeras teorías como la de Empédocles que
proponía la existencia de cuatro constituyentes fundamen-
tales el agua, el aire, el fuego y la tierra, u otras aún más
antiguas como la propuesta en la India donde se mencionaba
siete elementos fundamentales, siempre se ha buscado cual
es o cuales son esos elementos constituyentes de la materia
y cada vez se ha estado más cerca de la verdad. Cuando J.J.
Thomson propuso su modelo del “pie de uvas”, y Rutherford
junto a sus colaboradores empezó a pulirlo hasta llegar al
modelo de Sommerfield, se pensaba que ya se tenía una
teoría bastante buena y apropiada sobre la constitución
de la materia, solo bastaban tres partículas elementales,
el neutrón, el protón y el electrón, para conformar todos
los elementos conocidos y toda la materia existente, sin
Jeicot Delgado, Proyecto Curricular de Licenciatura en Física,
Grupo de Física e Informática “FISINFOR”, Facultad de Ciencias
y Educación, Universidad Distrital “Francisco José de Caldas”.
Este trabajo de grado fue financiado por el Centro de Investiga-
ciones de la Universidad Distrital (CIDC). Especial agradecimiento
a mis padres que hicieron posible mi educación.
Trabajo de grado como requisito para optar por el título de: “Li-
cenciado(a) en Física” de la Universidad Distrital “Francisco Jose
de caldas”.
Código estudiante: 20071135016, jeicotdelgado@gmail.com,
Bogotá, Colombia 2016.
embargo, existía un pequeño problema dentro del átomo,
no se sabía como un protón podía convivir con un neutrón
en el núcleo ya que estas no estaban ligadas eléctricamente,
cómo era posible que un núcleo fuera estable sabiendo que
no existía ninguna fuerza, hasta el momento, que pudiera
dar cuenta de esta atracción entre estas dos partículas.
Solo fue hasta que se pensó un nuevo tipo de interacción,
llamado interacción fuerte, que los científicos empezaron
a aproximarse a esa verdad oculta detras del núcleo que
permitió entender en gran medida cómo estaba constituida
la materia y, primordialmente, cómo esta interactuaba.
La teoría de la cromodinámica cuántica o, por sus siglas
en inglés, QCD quantum cromodynamic, es una teoría sobre
la interacción fuerte con un marco matemático bastante
robusto, pero tiene la ventaja de poder explicar el cómo
esta compuesta la materia junto con la teoría electrodébil,
dentro del marco del modelo estándar. Esta es una teoría
que tuvo bastantes altibajos, cada vez que se pensaba que se
estaba próximo a una teoría apropiada, surgían evidencias
de algo más allá, muchas veces un problema más complejo
que el anterior, que desemboca en el problema actual de
la teoría de Lattice QCD que se sale del objetivo de este texto.
Partiendo desde la teoría de Yukawa, hasta llegar a la
cromodinámica cuántica propuesta por David Gross, Wilzek
y Politzer, la interacción fuerte ha dado sorpresas, y que
2 JEICOT DELGADO
mayor sorpresa que la existencia de un comportamiento
extraño de los constituyentes, ese concepto llamado libertad
asintótica, concepto que, gracias a un solo signo y una
interpretación formidable de este, hace que la teoría cobre
un éxito mucho mayor que cualquier otra teoría que trate
sobre esta interacción. Solo basta con recordar las palabras
de David Gross en lo que respecta al descubrimiento de
este signo que rige el comportamiento asintótico: ´´Like an
atheist who has just received a message from a burning bush,
I became an immediate true believer. (Gross, 1999) (Al igual
que un ateo quien acaba de recibir un mensaje de un arbusto
en llamas, me convertí inmediatamente en creyente).”
Este texto tiene como objetivo mostrar en que consiste la
teoría de la cromodinámica cuántica, esto mediante los he-
chos históricos que la llevaron a la cumbre y la comparación
con su teoría hermana, la electrodinámica cuántica o, por sus
siglas en inglés, QED (Quantum Electrodynamic). En este
texto, también se busca orientar e interesar a los estudiantes
de la Universidad Distrital, más precisamente, a los estudian-
tes de licenciatura en física, para que continúen el presente
trabajo aportando a la construcción de esta teoría bastante
interesante. Tenga en cuenta que este trabajo no propone ser
un soporte riguroso de cada uno de los desarrollos teóricos
de la interacción fuerte, por lo cual, no posee un lenguaje
matemático formal ni muestra desarrollos analíticos preci-
sos, su enfoque tiende a ser más conceptual mostrando las
interpretaciones de los procesos mostrados, sin embargo, es
de importancia que el lector posea unos conceptos básicos
sobre la mecánica cuántica y la teoría de perturbaciones.
Electrodinámica Cuántica
La teoría de la electrodinámica es una teoría que se enfoca
en explicar fenómenos naturales en los cuales interactúan,
tanto la electricidad como el magnetismo, con la materia;
estos fenómenos son explicados mediante las ecuaciones de
Maxwell. En su componente macroscópica, el electromagne-
tismo se centra en estudiar los fenómenos donde se encuen-
tran presentes cargas en movimiento o estáticas y cómo estas
influyen en el comportamiento del sistema bajo estudio. Para
el caso microscópico, los procesos son tratados mediante la
mecánica cuántica la cual tuvo éxito al explicar los fenóme-
nos presentes dentro del átomo.
Breve Reseña Sobre la Electrodinámica Clásica
La electrodinámica clásica se planteó como una teoría
que intentaba explicar el comportamiento de la materia
cuando esta interactuaba electromagnéticamente. Una de las
primeras aproximaciones formales propuestas para explicar
esta interacción proponía la existencia de constituyentes o
partículas por medio de las cuales la interacción electromag-
nética se presentaba, Newton, en 1704, propuso la existencia
de unos entes mediadores que indicaban la presencia de una
carga eléctrica y cómo esta se comportaba(D. J. Griffiths y
College, 1999). Él realizó un gran aporte al entendimiento
de cómo la luz interacciona con la materia a partir de su
interpretación de la luz en forma de partículas o corpúsculos.
De este modo, logró explicar la mayoría de los diferentes
fenómenos que presenta la luz, sin embargo, una de las
grandes complicaciones se presentó al intentar explicar el
fenómeno de reflexión, más específicamente, la reflexión
parcial.
En este proceso, la luz atraviesa una sustancia y solo una
porción de luz es reflejada mientras que la otra porción es
transmitida. Considere el siguiente arreglo experimental: se
tiene un vidrio el cual es iluminado con luz monocromática
(de un solo color, por lo tanto una única frecuencia) de
forma tal que el vidrio permite que solo el 4 % de la luz sea
reflejadamientras que el 96 % es transmitida y es medida por
un detector B que se encuentra encerrado dentro del vidrio.
El esquema de este proceso se muestra en la Figura 1.
Figura 1. En esta imagen se muestra que el 96 % de la luz es trans-
mitida y detectada en B, mientras que el otro 4 % es medida por el
detector A
Si se introduce una capa delgada de vidrio después de
una primera capa igualmente delgada se esperaría, bajo la
explicación corpuscular (en términos de partículas) de la
materia, que aproximadamente un 4 % de luz vuelva a ser
reflejada, pero lo que en realidad sucede en este fenómeno,
es que no se refleja un total del 8 % de la luz, si no un
16 % (Figura 2). Si se disminuye la distancia de separación
entre las dos capas de vidrio se reduce el porcentaje de luz
reflejada y pasa a un 10 % y cada vez que se disminuye el
espaciamiento, el porcentaje decae hasta un valor de cero.
En el caso contrario, al aumentar la distancia de separación
también se produce un decremento en el porcentaje de luz
reflejada gradualmente hasta llegar a un valor igualmente
de cero. Bajo la interpretación propuesta, este fenómeno era
totalmente desconcertante ya que, ¿cómo podría depender
la cantidad de partículas reflejadas de la distancia entre las
CROMODINÁMICA CUÁNTICA 3
dos capas?, Este fenómeno produjo una gran complicación
en la interpretación de la luz como una partícula y fue
un gran problema para Newton el poder explicarla. Para
tratar de defender su aseveración llego a proponer que los
corpúsculos de luz se comunicaban de alguna forma y le
enviaban información al otro corpúsculo definiendo si podía
pasar o no. Esta fue una de las primeras nociones de campos
interactuantes, sin embargo, era totalmente descabellado que
su comunicación se basara en un elemento mediador entre
estos ((Feynman, 1985)).
Figura 2. Esta imagen muestra un arreglo experimental similar a
la Figura 1, con la inclusión de una capa delgada adicional modifi-
cando enormemente el comportamiento de la luz
En esa misma época, existía otra interpretación de la
luz, liderada por Huygens, la cual consistía en tratarla
como si fuese una onda, pero, al igual que la interpretación
corpuscular, la teoría permitía explicar una gran variedad de
fenómenos incluyendo el fenómeno de la reflexión parcial,
sin embargo, cuando un foto detector (aparato que permite
detectar cuando llega la luz a este mediante un tic) es
irradiado con luz monocromática y se comienza a disminuir
gradualmente la intensidad de luz, no se disminuye la
intensidad del sonido como predecía la teoría ondulatoria, si
no aumenta la separación del sonido de cada tic, fenómeno
en el cual la interpretación corpuscular sale triunfante.
Ambas teorías tenían sus logros y sus desventajas, pero la
prueba reina que mostró el extraño comportamiento de la luz
fue el experimento de la doble rendija, Figura 3, este consiste
en establecer una barrera en medio de un haz de luz mono-
cromático alineado con un foto detector. A esta barrera se le
abren dos orificios uno de estos alineado y el otro ligeramen-
te desplazado del otro. Cuando uno de los orificios A o B
es tapado, el foto detector suena un 2 % de las veces, de tal
forma que la luz pasa por B o A, ahora si se destapan los dos
orificios se esperaría que el foto detector sonara o detectara
un 4 % de las veces pero en vez de esto, el suena un 8 %,
además este valor varía según la distancia de separación en-
tre los orificios. Hasta este punto, se pensaría en la luz como
una onda, no obstante, si se modifica ligeramente este expe-
rimento introduciendo dos foto detectores en los orificios A
y B, estos suenan un 2 % de las veces de forma individual y
el foto detector último un 4 % sin que su valor varíe según la
distancia de separación entre los orificios. Este fue un hecho
desconcertante por lo cual se pensaba que la luz se compor-
taba según el tipo de experimento que se iba a realizar, en
algunos casos esta lo hacia como partícula (cuando se ponían
los detectores en los orificios A y B) y en otros como ondas
(cuando los orificios no tenían tales detectores), por lo cual
fue llamada dualidad onda-partícula.
Figura 3. La imagen muestra el arreglo experimental con el cual se
evidencia la ”dualidad onda-partícula“. Cuando los dos orificios se
encuentran abiertos, la luz se comporta como una onda producien-
dose un patrón de interferencia en D. Si se tapa un orificio, la luz se
comporta como partícula produciendose la detección de un haz de
partículas en D.
Electrodinámica Cuántica como Teoría Cuántica de
Campos
A partir de estos experimentos, fue necesario revisar
la teoría y se propuso la electrodinámica cuántica o QED
por sus siglas en inglés (Quantum Electrodynamics).
Esta propone que la luz esta compuesta por partículas
caracterizadas por un vector que las representa y cuya
magnitud está relacionada con la probabilidad de que un
proceso, por ejemplo la trasmisión de luz en el caso de la
reflexión parcial, se de. Adicional a esto, su dirección está
variando continuamente y depende de la frecuencia de las
partículas (similar a las manijas del reloj que están rotando
constantemente y cuya rotación dependen de la frecuencia
característica del minutero, segundero y el horario, pero en
una versión mas rápida), de esta forma se pasa a tener una
interpretación probabilística de los fenómenos de la luz.
Como prueba a la teoría, es posible explicar los fenóme-
nos mencionados anteriormente usando esta interpretación,
de tal forma que para el primer fenómeno consistente en irra-
diar con una fuente de luz monocromática un vidrio (que in-
dica que tiene una frecuencia o una velocidad de rotación del
vector fija), se tiene en la primera parte del fenómeno y para
el caso de una partícula con vector de magnitud 0.2 unidades,
una probabilidad del 4 % de que la luz sea reflejada. Don-
de esta probabilidad es determinada tomando el cuadrado de
su magnitud, que es 0.04 y que representa la probabilidad
de que el evento o proceso se de. Para la segunda parte en
la cual se introduce otra capa delgada de vidrio se produce
4 JEICOT DELGADO
una probabilidad igual para la primera capa, pero ahora la
segunda puede alterar el fenómeno, si la partícula que fue
reflejada por la segunda capa llega al mismo tiempo que la
reflejada por la primera pero con dirección totalmente con-
traria, estos se restarán y producirán una probabilidad de 0
(0.2 de la primera capa menos 0.2 de la segunda), pero si se
varia la distancia de separación alejando la segunda capa, la
partícula reflejada por esta tendrá mas tiempo de girar hasta
llegar a la misma dirección que la primera y se producirá una
probabilidad de 16 % (0.2 de la primera partícula mas 0.2 de
la segunda produce un vector de 0.4 cuyo cuadrado es 0.16,
en la Figura 4 se muestra un esquema de cómo se realiza esta
suma).
Figura 4. En esta imagen se muestra, esquemáticamente, la suma
vectorial de los vectores de dos partículas que llegan con la misma
dirección al detector. Cuando esto se produce, se presenta una in-
terferencia constructiva entre estos, aumentando la probabilidad de
ser detectados.
De esta forma es posible explicar como se presenta estos
fenómenos en términos de probabilidades siendo coherente
con los valores experimentales y porqué en algunos casos
se detecta la luz y porqué en otros no. Uno de los aspectos
más importantes en esta teoría, es un postulado propuesto por
Feynman (Feynman, 1985) el cual indica que todos los pro-
cesos que se presentan o se puedan presentar en el fenómeno
han de ser tomados, es decir, sin importar como se de el pro-
ceso, se han de tener en cuenta todas las posibles formas en
que se pueda llevar desde un estado inicial (emisión de la luz
monocromática sin interactuar) hasta un estado final (detec-
ción de la luz por el detector), de esta forma se incluyen tanto
los procesos en los cuales la luz toma los caminos “clásicos”,
que son aquellos donde la luz le toma menos tiempo en llegar
al detector (como ejemplo, la luz siendo transmitida por el
primer vidrio, luegosiendo reflejada por el segundo, después
siendo transmitida por el primero para luego ser detectada),
junto con todos los demás caminos donde no toma el camino
más rápido (por ejemplo, la luz siendo transmitida por la pri-
mera capa del vidrio, luego siendo reflejada por la segunda
capa para ser reflejada de nuevo por la primera capa, llegando
a la segunda donde, de nuevo, es reflejada y cuando llega a
la primera capa por tercera vez, es transmitida para luego ser
detectada). Esto es mostrado esquemáticamente en la Figura
5
Figura 5. En esta imagen se muestra uno de los posibles caminos
que puede tomar la luz en el experimento.
Para poner a prueba el argumento propuesto por Feynman
acerca de todos los caminos posibles que la luz puede tomar,
es necesario poner a prueba la teoría de la electrodinámica
cuántica, por esto, se tratará el fenómeno de reflexión, donde
la luz es reflejada al chocar o interaccionar con una superfi-
cie. El experimento consiste en alinear una fuente de luz mo-
nocromática S y un detector P, con un obstáculo en medio
de ellos. Debajo de estos se pone un espejo en paralelo con la
alineación, de tal forma que la luz de la fuente sea reflejada
en éste para luego ser detectada como se muestra en la Figura
6.
Figura 6. En esta imagen se indican los posibles caminos que pue-
de tomar la luz para llegar al detector, incluyendo aquellos caminos
clásicos (caminos del tipo S − A − P).
La explicación bajo la interpretación de la teoría es que
los caminos que están en el centro tienden a reforzarse ya
que la diferencia entre sus caminos (el tiempo que duran
girando) son similares y así sus magnitudes o probabilidades
tenderán a estar alineadas e interferirán constructivamente,
esto es, los caminos con puntos de reflexión G y H en la
figura 6 se reforzarán y por tanto serán detectadas, pero
en el caso de los caminos que van hasta el extremo del
espejo,como los caminos A o M, sus vecinos B o K tendrán
una diferencia de caminos notoria debido a que tienen
que recorrer mayor trayecto, por lo cual se producirá una
interferencia destructiva que resultará en la anulación de la
amplitud y no se detectará luz que haya tomado los caminos
CROMODINÁMICA CUÁNTICA 5
correspondientes a los extremos del espejo.
Según la interpretación de Feynman, se produce reflexión
en los extremos del espejo pero no son detectados debido
a que sus vecinos interfieren destructivamente, sin embargo,
si se modifica el espejo eliminando la reflexión de aquellos
caminos que interfieren destructivamente y solo se dejan los
que llegan con la misma dirección, se debe producir detec-
ción de estos últimos, esto puede ser logrado cubriendo la
parte del espejo correspondiente a los caminos B o K de la
Figura 6 que interferían destructivamente con los caminos A
o M1. Un esquema de este experimento es mostrado en la
Figura 7
Figura 7. En la figura se muestran un conjunto de haces que inci-
den en el espejo modificado y son detectados en distintas posicio-
nes. Su detección depende de la frecuencia de cada haz de luz.
Efectivamente, al realizar este experimento con esta modi-
ficación se produce detección en los extremos del vidrio. Este
hecho hace que la teoría salga triunfante al poder explicar los
fenómenos de la luz, además de aquellos que son poco pro-
bables o aquellos que ni siquiera se pensaba que existieran,
como el mostrado anteriormente.
Construcción de una Teoría Cuántica de Campos
En el último siglo, se ha logrado comprender y pro-
fundizar mucho más en el mundo físico y cómo este se
comporta debido a diferentes fenómenos como por ejemplo
el comportamiento de la luz y su interacción con la materia,
que es uno de los de mayor interés en el presente trabajo
y con el que se ha trabajado de forma descriptiva. En su
mayoría, estos avances han sido alcanzados gracias a la
mecánica cuántica, y esto nos permite establecer o por lo
menos asimilar de forma acertada, que esta teoría describe
de forma correcta el mundo físico. La gran complicación
que posee esta teoría es su complejidad, solo es posible
aplicarla a problemas que son, en su descripción, un poco
más simples, y cuando se intenta generalizar o incluir mas
interacciones, esta empieza a presentar fallas o simplemente
no es posible obtener una descripción del fenómeno debido
a su complejidad en el formalismo.
Este problema no se había presentado en las teorías
predecesoras y no se presenta actualmente si se usa la
mecánica clásica entonces, ¿por qué no partir desde este
punto e ir construyendo una teoría que se aproxime de
la mejor forma a la teoría cuántica?. Este es uno de los
objetivos que se llevaron a cabo en el último siglo, sin
embargo, no fue una tarea fácil de realizar.
Uno de los intentos mas resaltantes se da a partir del
hamiltoniano, una cantidad que permite conocer cómo es
el comportamiento de un sistema por lo cual es de gran
importancia; cuando se presenta el caso donde el hamilto-
niano es independiente del tiempo, se cumple que este es
igual a la energía del sistema. Tras obtener esta cantidad, es
posible desarrollar unas reglas que permiten tener un primer
acercamiento a una teoría cuántica. No obstante, este no es
un proceso fácil de realizar, hasta algunos físicos piensan
que este problema es de carácter fundamental y no ha de ser
realizado a través del hamiltoniano y han realizado distintos
intentos de producir una nueva forma de alcanzar una teoría
cuántica sin necesidad de este. Para Dirac, el hamiltoniano
si es de vital importancia y si se presenta el caso donde
este no sea el ente fundamental para realizar este proceso,
ha de serlo una cantidad similar a este o un concepto mas
generalizado del mismo (Dirac, 1964).
Es necesario entonces usar el hamiltoniano, sin embargo,
el mundo cuántico involucra elementos que tienen la
posibilidad de moverse a velocidades cercanas a la de la
luz o incluso iguales, y el hamiltoniano presenta un gran
problema, no es invariante ante transformaciones relativistas.
Esto implica que no es posible trabajar dentro de un marco
relativista con el hamiltoniano ya que al realizar cualquier
transformación de este tipo, por ejemplo una transformación
espacial, las cantidades que son descritas por medio del
hamiltoniano cambiarán y no estarán describiendo una
cantidad real.
Para eludir este problema, es posible usar una función
diferente, llamada Lagrangiano, este es definido a partir
de la acción, que es una función que define como se da y
trayectorias puede seguir un proceso. El lagrangiano tiene la
propiedad de ser invariante ante transformaciones relativistas
por lo cual es adecuado para tratar fenómenos en el mundo
cuántico. Ahora, si este es tan efectivo dentro del mundo
cuántico, ¿por qué no usarlo para obtener una teoría cuántica
apropiada?. Es posible realizarlo, sin embargo, solo para
algunos casos particulares, pero ya que se busca obtener
una interpretación total del mundo a través de una teoría
cuántica, es necesario obtener algún tipo de generalización
para plantear la teoría.
En síntesis, el camino para obtener una teoría cuántica
parte desde el lagrangiano, pasa por el hamiltoniano como
un punto intermedio, y después de esto, se obtiene una
1Los diferentes caminos que puede tomar la luz dependen, a su
vez, de la frecuencia de esta, por ejemplo, donde se detectan los
haces de frecuencia roja, los haces azules no son detectados ya que
en ese punto se producirá una interferencia destructiva, y viceversa.
6 JEICOT DELGADO
aproximación a una teoría cuántica. No es posible acortar el
camino debido a los problemas mencionados anteriormente,
entonces, el camino ha de realizarse completo y es, obtener
la acción del fenómeno para así poder identificar cual es
el lagrangiano, obtener una ecuación similar a la de Euler-
Lagrange, que es una ecuación de movimiento donde se
incluye el lagrangiano, identificar el momento asociado a la
variable dinámica, realizar la cuantización con las variables
dinámicas involucradas, para así obtener una teoría cuántica.
Todo este recorrido se ha realizado paraintentar describir
cómo se da un fenómeno y cómo se comporta el sistema bajo
las interacciones que se presentan en este. Una de las ventajas
de esto es que sin importar que sean una o varías partículas
las que conformen el sistema y sean las que estén interactuan-
do, el sistema siempre será descrito mediante una función de
onda. Este sistema, gracias a DeBroglie y Schrödinger, puede
ser interpretado como una función de onda y toda función de
onda puede ser interpretada como un campo ya que esta pue-
de ser expandida en operadores de modo, que representan un
campo (Cohen-Tannoudji, J., y Grynberg, 1997). Esta fun-
ción de onda o campo es quien describe el comportamiento
del sistema, así, si se pone a evolucionar esta en un tiempo t,
se puede determinar qué pasó con esta y cómo interactuó en
un tiempo t. El poner a evolucionar a la función de onda en
el tiempo se le conoce como punto de vista o representación
de Schrödinger y esta evolución es determinada mediante la
ecuación:
Ĥ |Ψ(t, x)〉 = i~
d
dt
|Ψ(t, x)〉 (1)
esta función describe el movimiento de la partícula, y tras
conocer el hamiltoniano Ĥ es posible conocer cómo esta
partícula se comporta en todo el proceso, conociendo así el
comportamiento de la partícula en su totalidad.
En algunos casos es un poco complejo obtener una des-
cripción apropiada de la función de onda, entonces se cam-
bia el objeto de estudio, pasando a ser los operadores los que
evolucionarán en el tiempo y permitirán definir el valor del
observable (cantidad física) para ese tiempo específico, este
punto de vista o representación, es llamada representación de
Heisenberg y es definido mediante la ecuación:
˙̂O(t) =
i
~
([Ĥ(t), ˆO(t)] (2)
en la cual ya no se busca la función de onda si no cómo es el
comportamiento de los operadores (Ô(t)) con respecto a t.
Como se había mencionado anteriormente, el plantear una
teoría cuántica no es un proceso fácil, se ha de tener la acción
del sistema para poder calcular el lagrangiano, que permite
determinar el hamiltoniano del sistema, para luego usar una
de las representaciones, ya sea la representación de Schrö-
dinger o la de Heisenberg, y así conocer el comportamiento
de la partícula en distintos intervalos de tiempo. El problema
es que el hamiltoniano no tiene una solución simple para
QED, presenta grandes complicaciones al tratar de hacerlo
que, en su mayoría, residen en la determinación de los
términos de interacción del sistema, y estos son los términos
de mayor interés ya que son los que definen cómo se puede
producir una partícula mediante experimentos de colisión o
en su forma más general, cómo se da la interacción.
Para intentar evadir esta gran complicación, se unen
las dos representaciones para producir la representación
de interacción, la cual no pone la dependencia del tiempo
en las funciones de onda ni en los operadores si no que
combina las dos dependencias, ahora tanto el operador
como la función de onda poseen esa dependencia temporal.
La ventaja de esta representación es que determina las
soluciones a los problemas usando la solución de campo
libre en la representación de Schrodinger y a esta se le suma
los términos de interacción desconocidos.
Al acoplar las ecuaciones (1) y (2), junto con ciertos cam-
bios en la función de onda (que describe el campo producido
por la partícula) y en los operadores (que pasan a tener la
dependencia en el tiempo al depender del Hamiltoniano de
la partícula libre), que son realizados mediante la operación
con una función del hamiltoniano de campo libre (aquí no
se incluirá un análisis formal de la teoría, para esto se puede
ver (Aitchison y Anthony, 2003), (Halzen y Martin, 1984) o
(Greiner, Schramm, y Stein, 2002)), se produce la ecuación
de Schwinger-Tomonaga:
i
d
dt
|Ψ(t)〉I = Ĥ
′
I |Ψ(t)〉I (3)
con Ĥ(t)I como el hamiltoniano de interacción y |Ψ(t)〉I
como la función de onda de interacción.
A pesar de esta simplificación en los operadores y la
función de onda, ya que se modificó el hamiltoniano y solo
se está interesado en los términos de interacción de éste,
aún es complicado resolver, por lo cual se usa la teoría de
perturbaciones.
Teoría de Perturbaciones. Esta teoría permite resolver
ecuaciones de gran complejidad matemática al tomar una
serie de funciones aproximadas a la función original, esto
es, a partir de un estado conocido del sistema, empezar
a tomar funciones aproximadas y alrededor de este, que
describan el estado, para así determinar el comportamiento
del sistema. En otras palabras, empezar a adicionar términos
cercanos a éste para así producir cualquier estado. Una de
las herramientas mas usadas es la teoría de las matrices de
CROMODINÁMICA CUÁNTICA 7
dispersión o la teoría de la matriz S .
Suponga que se tiene un conjunto de partículas el cual en
el comienzo de los tiempos no han interactuado de ninguna
manera, por lo tanto, estas han de estar en un estado inicial
|ψ(−∞)〉I = |i〉. Tiempo después, se producirá la interacción
entre estas partículas, y en últimas se separarán y ya no in-
teractuarán entre sí. De este modo, tiempo después a la inter-
acción, estas van a estar en un estado final |ψ(∞)〉I = | f 〉 que
solo difiere del estado inicial por unos cambios en las canti-
dades de partículas, los valores de sus números cuánticos y
sus cantidades de momento. Estos cambios pueden ser des-
critos mediante un elemento matricial S aplicado al estado
inicial del sistema | f 〉 = Ŝ |i〉. Así si tomamos la amplitud del
estado final se obtiene:
〈 f | f 〉 = 〈 f | Ŝ |i〉 = S f i (4)
donde las componentes de Ŝ son las amplitudes de probabi-
lidad de encontrar una partícula en el estado final | f 〉, dado
que estuvo en un estado inicial |i〉
Para poder determinar los valores de Ŝ se usa la teoría de
perturbación, que es el objetivo de usar la representación de
interacción ya que se tiene el hamiltoniano de campo libre
más los términos de interacción, en otras palabras, más los
términos perturbativos al integrar la ecuación (3) obtenién-
dose:
|Ψ(t)〉I = −i
∫ t
−∞
Ĥ′I(t
′) |Ψ(t′)〉I dt
′ (5)
donde los limites de integración son tomados desde el inicio
de los tiempos donde no se presenta ningún tipo de interac-
ción (−∞), hasta el tiempo t donde se da la interacción. Si
Ĥ′
′
I(t
′) es nula, indica que no se presentó ninguna interac-
ción entre las partículas a un tiempo t′ por lo cual el estado
|Ψ(t)〉(0)I = |i〉. Introduciendo este hecho a la ecuación (5) se
obtiene:
|Ψ(t)〉1I = |i〉 +
∫ t
−∞
(−iĤ′I(t1))dt1 |i〉 (6)
donde los súper índices en las funciones de onda de las ecua-
ciones (5) y (6) indican las correcciones a orden 0 y a primer
orden, además el subíndice 1 en el tiempo indica que la in-
teracción a primer orden se dió en un tiempo t1. Introducien-
do todas las correcciones, cambiando el hamiltoniano por la
densidad hamiltoniana e introduciendo un nuevo operador
llamado operador ordenamiento del tiempo T que cumple:
T (Ĥ ′
I
(x1))(Ĥ ′I(x2)) =
Ĥ ′
I
(x1)Ĥ ′I(x2) con t1 > t2
Ĥ ′
I
(x2)Ĥ ′I(x1) con t2 > t1
(7)
donde se cambia la dependencia de tn por xn que representa
los posibles estados que tendrán las partículas. Con el fin de
hacer la ecuación más simétrica tanto en la posición como en
el tiempo, para realizar los cálculos directamente sin preocu-
parse por el orden de los términos dentro de la ecuación, se
obtiene:
Ŝ =
∞∑
n=0
(−i)n
n!
∫
· · ·
∫
d4x1 · · · d4xn
T {Ĥ ′
I
(x1)Ĥ ′I(x2) · · · Ĥ
′
I
(xn)}
(8)
Los términos presentes en esta ecuación ahora dependen de
la coordenada xn y la densidad hamiltoniana la cual define
como se da la interacción. El operador ordenamiento en el
tiempo, permite realizar el cálculo sin tener en cuenta en qué
momento se da la interacción y al aplicarlo este reorganiza
los términos según el orden temporal adecuado.
Este proceso se realiza con el fin de mostrar cuál es la
relación que hay entre la ecuación de Schwinger-Tomonaga
(3) y las amplitudes de Feynman (8). A pesar de ser un
proceso engorroso, esta indica como se están dando las
interaccionesy al tomar todas las correcciones,muestra todas
las interacciones que pueden llegar a darse, las cuales están
integradas en unas nuevas herramientas llamadas diagramas
de Feynman, que serán mostrados en las secciones próxi-
mas, estos diagramas muestran desde una perspectiva gráfica
cómo se dan las interacciones y permite evaluar con mayor
facilidad cuales son los cálculos matemáticos involucrados
en la ecuación.
Aplicación a Tres Partículas A, B y C. Para tener una
mejor comprensión de cómo se trabaja dentro de esta teoría,
se tratará con un sistema ficticio con tres elementos que van
a interactuar. Téngase en cuenta tres partículas A, B y C, las
cuales producen unos campos descritos por φA, φB y φC con
spin 0. A manera de ejemplo sobre el uso de los diagramas
de Feynman en conexión con la ecuación (8), se toma el pro-
ceso de dispersión A + B → A + B con un tercer elemento
interactuante C que tiene lugar en el proceso intermedio. El
hamiltoniano en la representación de interacción para esta
teoría es de la forma:
Ĥ =
1
2
∑
i=A,B,C
∫
[Π̂2i +(∇φ̂i)
2+miφ̂i]d3x+g
∫
d3φ̂Aφ̂Bφ̂C (9)
donde los términos φ̂i hacen referencia a los campos gene-
rados por las partículas A, B y C, el término Π̂i corresponde
al momento conjugado de la partícula i-ésima y el valor g es
el término de acoplamiento de los campos. Aquí, el primer
término hace referencia al hamiltoniano de campo libre y el
segundo al hamiltoniano de interacción.
En la teoría de la matriz Ŝ , se está interesado en
determinar la matriz en términos de los hamiltonianos
8 JEICOT DELGADO
(densidades hamiltonianas en este caso) de interacción. En
el hamiltoniano (9), el segundo término es quien describe
la interacción y las distintas formas en que se da esta están
descritas en este término además de las otras posibles formas
que se pueden dar las interacciones al tomar los diferentes
ordenes de corrección en la ecuación (8). Los desarrollos
numéricos correspondientes a esta teoría se pueden revisar
en ((Aitchison y Anthony, 2003)).
Gracias a esto es posible determinar los propagadores,
que son elementos matemáticos que permiten poner a
evolucionar en el tiempo al sistema y que para este caso,
son:
〈0|âA(P′A)â
†
A(PA)|0〉 〈0|âB(P
′
B)φ̂B(x1)|0〉 × 〈0|φ̂B(x2)â
†
B(PB))|0〉 〈0|T (φC(x1)φ̂C(x2))|0〉 〈0|T (φ̂A(x1)φ̂A(x2))|0〉 + x1 ↔ x2 (10)
Esta ecuación ha de ser integrada para obtener los elemen-
tos S f i de la matriz S , que son aquellos que definen la am-
plitud para que un sistema pase de un estado inicial |i〉 a un
estado final | f 〉. un análisis de esta ecuación nos muestra que:
ya que los términos âiâ
†
i son proporcionales a la delta de di-
rac δ3(Pi − P′i) nos dice que la partícula i-ésima no presentó
ninguna interacción y siguió su camino, cuando se presen-
tan términos de la forma 〈0|âi(P′i)φ̂i(x1)|0〉 implica que se es-
ta produciendo una aniquilación de la i-ésima partícula con
estado x1, en forma similar los términos 〈0|φ̂i(x2)âi(Pi)†|0〉
simboliza la creación de la i-ésima partícula con estado x2.
Por último, los términos de la forma 〈0|T (φi(x1)φ̂i(x2))|0〉 son
los términos que dan cuenta de interacciones mediadas por el
campo i-ésimo. Adicional a esta existen más ecuaciones que
dan cuenta de las posibles interacciones a primera aproxima-
ción, algunas de ellas, serán mostradas en el transcurso de
este trabajo. Para resolver esta integral (10, se ha de definir
los campos en su respectiva expansión de modos de campo
para luego aplicar la transformada de Fourier, este proceso
es un poco complejo y en la mayoría de los casos se pre-
sentan divergencias, el proceso descriptivo para eliminar ta-
les divergencias será mencionado en la sección Renormaliza-
ción. Sin embargo, Feynman desarrolló un método para resu-
mir este tipo de interacciones usando los llamados diagramas
de Feynman. Para este caso el diagrama correspondiente es
mostrado en el diagrama (11):
C
A
B
A
B′
A′
(11)
donde las partículas representadas por líneas externas son
partículas reales, mientras que las partículas representadas
por líneas internas son virtuales (se definirá este concepto
en la sección Renormalización) y solo establecen una expli-
cación esquemática del proceso por el cual se da la interac-
ción. Además de los diagramas de Feynman, se establecieron
unos elementos llamados reglas de Feynman para establecer
la solución de los diagramas directamente, para el caso de la
teoría ABC, estas son:
I. Agregar (−ig) por cada vértice.
II. Por cada línea interna un factor (i/q2i − m
2
i + i�) donde
q hace referencia al momento transferido a las partícu-
las mediadoras.
III. Por cada vértice introducir un factor de la forma
(2π4)δ4(p1+p2+...+pn+q1+q2+...+qn) donde el signo
de cada momento es determinado por la dirección de
cada partícula, si está entrando tendrá signo positivo,
caso contrario, será negativo. Este hecho muestra la
conservación del momento lineal durante los procesos.
Mediante estas reglas es posible calcular con mayor
facilidad la amplitud, o la matriz de dispersión Ŝ de los
procesos correspondientes al diagrama (12), la segunda regla
nos cuenta además un hecho de suprema importancia en
la física nuclear y de partículas, existe una condición en
estas teorías llamada “mass-shell condition” o condición del
cascarón de masa, que se cumple cuando se da q2i = m
2
i , de
esta forma se indica si un proceso se da de forma virtual o
no; si se cumple la condición, el campo o esa línea interna
tenderá a corresponder a un proceso real, pero si esta no
se cumple o es “off mass-shell” implica que se presenta un
campo virtual. La palabra virtual indica que la partícula no
existe, es decir, se presenta algún tipo de interacción por
ejemplo, para el diagrama (12) entre A y B, produciéndose
una partícula C que no es observada físicamente (no es
posible obtener mediciones experimentales directas acerca
de su existencia en ese momento), entre mayor tiempo de
vida media posea la partícula virtual, tenderá a ser ”real“,
por ejemplo, un fotón que es emitido en una supernova no
necesariamente es real para el proceso emisión y absorción
por el ojo, sin embargo, ya que tuvo un tiempo de vida medio
muy grande, su masa tiende a caer en el valor de q2i . Como
consecuencia del principio de incertidumbre en términos
CROMODINÁMICA CUÁNTICA 9
de la energía y el tiempo 4E4t ≥ ~/2, para el caso de una
partícula virtual, esta puede tomar prestada una energía
tan grande como se quiera del vacío siempre y cuando la
devuelva en el intervalo de tiempo fijado por el principio,
ya que su energía puede ser cualquiera, la condición de “off
mass-shell” se cumplirá teniendo cualquier masa.
B
A
A′
C
B′
(12)
Las reglas de Feynman mencionadas anteriormente solo
nos hablan de los términos donde se presentan líneas internas
y vértices, por ejemplo para diagramas como el diagrama
(12), ¿qué sucede entonces para los casos donde existen
interacciones entre los campos, es decir, loops como el
mostrado en el diagrama (11)?, loops de este tipo muestran
la interacción entre A y C de tal forma que altera el momento
de las partículas. La modificación en este caso del momento
de B podría representar una variación a su vez en la masa,
que desembocará en procesos medibles experimentalmente.
En este proceso, se tiene un momento fijo entrante que es
el momento que poseía la partícula B al inicio, antes de
disociarse, que luego se reparte en un momento para A y
otro para C, que en últimas se unen para producir de nuevo
a la partícula B pero ahora con un momento final o saliente
distinto del inicial de tal forma que los momentos de A y C
no son totalmente especificados mediante la conservación
del momento.
Para estos casos se desarrolló una cuarta regla:
IV. Por cada cuadri-momento k no fijado por la conserva-
ción del momento, tome la integración de:∫
d4k
(2π)4
Una integración sobre un cuadri-momento ocurre por
cada espira cerrada.
Esto fue un gran avance ya que el lograr sintetizar
ecuaciones tan extensas que requieren de un cuidado preciso
para su evaluación es de suprema importancia para facilitar
loscálculos de las amplitudes o matrices de dispersión Ŝ , de
las cuales se puede extraer cantidades de vital importancia,
como lo son los tiempos de vida medios τ de las partículas
reales que, como se indica en su nombre, permite conocer
el tiempo de vida2 de un conjunto de partículas de una sola
especie, y las secciones transversales σ de los procesos
de dispersión que, junto con las secciones transversales
diferenciales de dispersión dσ/dΩ, permiten definir, entre
otras cosas, la velocidad o energía mínima con la cual ha
de incidir una partícula para generar un estado ligado, por
ejemplo, generar un estado ligado e− + e+. Esto puede ser
obtenido a través de la regla de oro de Fermi, esta es:
Tasa de transición o decaimiento = | f (potencial)2i | ·
(densidad de estados).
donde la densidad de estados indica la cantidad de
espacios disponibles o de elementos en los cuales las
partículas pueden decaer, y el potencial está estrechamente
ligado con la amplitud calculada a partir de las reglas de
Feynman (Feynman, 1961).
Sin embargo, no estuvo exento de críticas como lo
mencionó en tono sarcástico Schwinger (David, 2005), “los
diagramas eran, como mucho, un asunto de pedagogía, no de
física” ya que, pareciese, no aportan nada a la teoría, solo una
forma más fácil de ver las ecuaciones de los propagadores,
además las divergencias seguían presentándose y por lo
tanto no era posible obtener valores medibles para poderlos
contrastar con los experimentales y corroborar si la teoría
era cierta o falsa.
La presentación ante el público científico de los diagramas
de Feynman fue realizada en 1948 en Pensilvania, Estados
Unidos, durante una reunión entre físicos realizada en el
hotel Pocono Manor Inn (David, 2005), aquí, Feynman
mostró sus diagramas como una forma de sintetizar aquellos
cálculos que eran, en su formalismo, complicados y que se
debían tomar con cuidado por su extensión, pero ya que su
conferencia fue precedida por una jornada maratónica de la
intervención realizada por Schwinger, en aquellos tiempos
el niño genio, quien mostraba una forma de eliminar los
problemas de divergencia en QED, esta conferencia fue
criticada y menos preciada pues ninguno entendía como
esos diagramas podrían ayudar a resolver los problemas de
la teoría, además que algunos ni siquiera podían plantear los
diagramas y mucho menos vincularlos con los cálculos. Sin
embargo, Freeman Dyson si tomó con cuidado cada una de
las aseveraciones dadas y junto con Feynman y los amigos
más cercanos de este, se reunieron para que les explicara con
mayor cuidado cómo se realizaban esos diagramas y cómo
se eliminaban las divergencias.
Tiempo después Dyson asistió a un curso de física teórica
en la escuela de verano en la Universidad de Michigan,
en el cual se destacaron las conferencias realizadas por
Schwinger sobre sus propios métodos de renormalización,
de esta forma, Dyson tuvo la oportunidad de compartir
2el tiempo de vida está íntimamente relacionada con la tasa de
decaimiento Γ, la cual indica cuanto tarda en decaer o realizarse un
proceso.
10 JEICOT DELGADO
con Schwinger y así entender de mejor forma su teoría.
Gracias a esto, en un artículo escrito a finales de 1948
(antes de que Feynman presentara su teoría en 1949), Dyson
mostró la equivalencia matemática que existía entre los
métodos de renormalización propuestos por Schwinger y los
de Feynman, junto con los propuestos por Tomonaga que
también trabajaba en este tema, y como un adicional, mostró
que con los diagramas de Feynman se podían ir eliminando
aquellas divergencias estableciendo las reglas de Feynman
mencionadas anteriormente.
En la época de la pos-guerra, Dyson llegó a realizar sus
estudios pos-doctorales en el Instituto de estudios Avanzados
en Princeton que estaba en proceso de renovación y cuyo
director recién posicionado era Oppenheimmer. En la época
en la cual llegó a realizar sus estudios, el instituto no había
terminado la adecuación de sus instalaciones por lo que
Dyson tuvo que realizar sus investigaciones en un salón
en el cual se encontraban varios investigadores y todas las
mesas eran contiguas generando así una gran comunicación
entre todos sus once ocupantes. Tras haber destacado en
el instituto, Dyson comenzó a formar a cada uno de sus
compañeros en el uso de los diagramas de Feynman, para así
proceder en los cálculos perturbativos pertinentes. De este
trabajo se destaca el realizado por Robert Karplus y Norman
Kroll quienes calcularon la corrección a segundo orden del
momento magnético del electrón, es decir, al orden e2 donde
se presenta intercambio de un fotón, por lo tanto dos vértices,
obteniendo un valor de 1,001147 el cual concordaba de muy
buena forma con los resultados experimentales de la época,
Además, todos los físicos que finalizaron su pos-doctorado
en el Instituto de Estudios Avanzados, pasaron a dictar sus
clases en diferentes universidades instruyendo a su vez, a los
jóvenes en el uso de los diagramas de Feynman y así gracias
al triunfo logrado por Karplus y Kroll y la gran difusión,
los diagramas fueron catapultados a ser la herramienta
predilecta en los cálculos perturbativos.(Gross, 1999)
Renormalización. En cierta medida la QED tiene una
gran ventaja que radica en la constante de acoplamiento,
e ' 1137 con las dimensiones apropiadas (~ = c = 1, en
la teoría ABC corresponde a ig), que al tener un valor
tan pequeño, cada vez que se tomen procesos donde se
involucren términos con e4, e6, · · · , en donde n es la cantidad
de vértices, se va a reducir en gran medida el aporte de
estas, al propagador final. En una interacción por ejemplo
del tipo (12) solo en la primera corrección se presenta
ya un término proporcional a e2. Ahora, si se toma para
la siguiente corrección se tendrá uno proporcional a e4, es
decir, cada vez será más pequeña la corrección. Debido a que
en esta formulación es necesario tomar todos los posibles
caminos, se han de tener las contribuciones hasta orden n,
sin embargo, al ser una constante tan pequeña, cada vez que
se introduce un nuevo orden, los aportes se van a reducir y
así una aproximación decente se puede tener hasta segundo
orden, es decir, hasta un término proporcional a e2.
Corrección de loop. A pesar de que la teoría presenta
una buena aproximación, existen laboratorios como el acele-
rador de Brookhaven, donde se podían obtener valores expe-
rimentales con una mayor precisión (Aitchison y Anthony,
2003), esto obligaba a la teoría a mejorar su precisión, al
incrementar los términos de corrección para así poder pro-
barla. Con base en lo anterior, y ya que siempre es necesario
tomar todos los caminos posibles, al diagrama (12) junto con
el diagrama (13):
B
A
A′
B′
C
(13)
que corresponden a un segundo orden, se han de adicionar
diagramas en los cuales se presentan los loops, como se
muestra en el diagrama (14), en este se muestran dos par-
tículas A y B con momento PA y PB respectivamente que
interaccionan y emergen con un momento P′A y P
′
B para A
y B, en esta aproximación se produce una partícula media-
dora C con momento u = (P′A − PB)
2 = (PA − P′B)
2. Este
tipo de diagramas se llaman diagramas de loops debido a la
existencia de procesos que se dan virtualmente.
C
A B
C
B
A
B′
A′
x1
x2
x4
x3
(14)
Este diagrama ha de ser tenido en cuenta en la suma de
los estados posibles que se introducen en la matriz S .En
este diagrama se presenta un término de gran importancia
correspondiente a la corrección de loop, que es:
(−ig)4
∫ ∫ ∫ ∫
d4x1d4x2d4x3d4x4ei(P
′
A−PB)·x1 ei(P
′
B−PA)·x2 × 〈0|T {φ̂C(x1)φ̂C(x2)}|0〉 〈0|T {φ̂C(x2)φ̂C(x4)}|0〉
× 〈0|T {φ̂A(x3)φ̂A(x4)}|0〉 〈0|T {φ̂B(x3)φ̂B(x4)}|0〉
(15)
CROMODINÁMICA CUÁNTICA 11
Este término se presenta cuando existe un loop en el dia-
grama y corresponde, por tanto, al diagrama de espira mos-
trado en (14). Este posee una solución, tras realizar la ex-
pansión de estos en términos de campo y varios cambios de
variable adicionales, corresponde a (Aitchison y Anthony,
2003):
(−ig)2
∫
d4k
(2π)4
i
k2 − m2A + i�
i
(q − k)2 − m2B +i�
≡ −iΠ[2]C (q
2)
(16)
Esto permite mostrar la dependencia que tiene el término
de loop (16) con respecto al momento k La introducción de
la integral nos indica que es necesario realizar una integral
sobre todo el espacio de momento, esto se debe a que no
existe especificación alguna del momento en las espiras, la
mayor información que se puede sacar es que si el cuanto
A tiene un momento k, el cuanto B tendría un momento
q − k cuya suma sería entonces q. Ese valor del momento,
es una variable libre lo que nos indica precisamente lo ya
mencionado, una integral sobre todo el espacio de momento.
El problema que presenta esta integral es que, por una ins-
pección rápida, la integral cuando se acerca al infinito, va a
decaer como: ∫ Λ
0
k3
k4
dk (17)
que es proporcional a una integral del tipo 1/k para grandes
valores de Λ, cuya solución es lnΛ, entonces si se toma
un valor Λ → ∞, la integral tenderá a infinito, es decir,
se vuelve una integral divergente. Este problema existe en
todas las teorías de campos y solo puede ser evitada usando
la renormalización.
En 1933 Dirac en la búsqueda de unificar la teoría
de la relatividad y la mecánica cuántica propuso en el
marco de la mecánica cuántica, una partícula con velocidad
igual a la velocidad de la luz, pero, debido al principio de
incertidumbre, una incertidumbre en su posición, producía
una posibilidad de que su velocidad, en algunos casos,
pudiese ser mayor a la de la luz lo que violaría uno de los
postulados de la relatividad que indica que nada puede viajar
más rápido que la velocidad de la luz. Esto fue solucionado
estableciendo que, en el momento de medir la velocidad de
la partícula, se produjeran partículas en diferentes posiciones
(conservando el principio de incertidumbre) e indistinguibles
de la partícula original. Estas partículas debían ser generadas
con su pareja anti-partícula para que los números cuánticos
fuesen conservados produciéndose así un espacio “vacío”
densamente poblado por partículas denominadas virtuales.
Este hecho es deducido a partir de la ecuación de Dirac la
cual en su desarrollo, que será mencionado más adelante,
presenta la posibilidad de que existan valores de energía
negativas, algo bastante extraño ya que si se presenta estos
posibles niveles de energía, una partícula podría estar
decayendo y a su vez emitiendo energía constantemente
lo que produciría que ningún átomo fuese estable. Para
subsanar este problema se introduce un “vacío” densamente
poblado de partículas lo que impide que los electrones de-
caigan a estados diferentes gracias al principio de Pauli (este
indica que los fermiones no pueden estar en el mismo estado.
Esto será ahondado en la sección Cromodinámica Cuántica).
Ahora, si se toma el caso donde se extrae, por ejemplo,
un electrón del vacío, se obtendrá un electrón con energía
positiva, pues ya no está en el nivel de energía negativo, pero
quedará un “hueco” en el lugar donde este debería estar. Este
espacio es asumido como la presencia de un positrón con una
energía negativa y con números cuánticos contrarios a los
del electrón. La primera medición del positrón fue realizada
por Anderson en 1931 al observar rayos cósmicos en una
cámara de niebla donde, al introducir un campo magnético,
se mostraba a un “electrón” que la atravesaba. Sin embargo
se tenían diferentes movimientos, él no sabía si el electrón
se movía hacia abajo, ya que algunos se desviaban hacía
la izquierda, otros se desviaban a la derecha. Para eliminar
este problema introdujo una placa delgada contra la cual
colisionaran los electrones y así poder saber su dirección
entrante. Sin embargo, las partículas entraban desde una
misma dirección pero tenían trayectorias contrarias evento
que solo se podía explicar mediante una diferencia de signo
en la carga eléctrica (D. Griffiths, 1987). Este es el mecanis-
mo mediante el cual se producen de forma espontánea pares
de electrones-positrones vituales y puede ser generalizado a
cualquier tipo de pares partícula-antipartícula que presenten
estos posibles niveles de energía, como por ejemplo, los
pares quarks-antiquarks. Este es precisamente el fenómeno
que se esta estudiando en la corrección de loop y del que se
da cuenta a través del diagrama mostrado en la figura 14
Si se tiene en cuenta que para un momento infinitamente
grande, la distancia será infinitamente pequeña, es posible
resolver el problema de la divergencia en términos de la
teoría de materia condensada. En este campo, el valor de
k no se toma hasta infinito ya que su valor, en términos
de la distancia, tiene un valor límite que depende del
espaciamiento de la red, por lo cual si se toma hasta un valor
de Λ, se podría obtener un valor coherente de la integral.
El objetivo entonces es fijar una cota para el valor de
Λ de forma tal que, a pesar de ser un simple arreglo, se
pueden obtener valores coherentes de la teoría. Sin embargo,
existe algo realmente curioso en esta corrección, al tener una
distancia cercana al valor 0, por ejemplo en una distancia
del orden 10−30m, que es donde se presenta la divergencia
a infinito de Λ, y aplicarla a procesos de QED es posible
12 JEICOT DELGADO
determinar los valores de la corriente j, de la masa m
y la constante de estructura α correspondientes, pero, al
acercarse más al valor 0, por ejemplo tomar una distancia del
orden de 10−40m, se producen valores totalmente diferentes
tanto de j, m y α. Sin embargo, en 1949 Hans Bethe y Victor
Weisskopf (Feynman, 1985) mostraron que al realizarse los
cálculos correspondientes de los observables, se obtienen
valores muy similares sin importar cuales valores de j, m y
alpha fuesen tomados, en adición, si se tomaban valores más
próximos al valor de 0 se logran obtener valores mucho más
precisos de los observables. Este hecho presenta la duda de
qué sucede más allá de los valores límites de Λ propuestos,
algunos dicen que más allá de ese límite existe una nueva
física a la espera de ser descubierta (Aitchison y Anthony,
2003).
Trabajando con un valor finito de Λ, y evaluando todos
los términos de corrección de loops donde, además de
introducir el término (16) que corresponde a un solo loop,
se introducen los términos similares de 2, 3, 4, · · · , n loops
correspondientes a los terminos mostrados en el diagrama
(18):
A
C
B
A
+
A
C
B
A
C
B
A
+
A
C
B
A
C
B
A
C
B
A
+ · · · (18)
de forma tal que al propagador final se le añaden los siguien-
tes términos:
i
q2 − m2C
+
i
q2 − m2C
(−iΠ[2]C (q
2))
i
q2 − m2C
+
i
q2 − m2C
(−iΠ[2]C (q
2))
i
q2 − m2C
(−iΠ[2]C (q
2))
i
q2 − m2C
+ · · ·
(19)
Esta serie, que tiene la forma de iq2−m2C
(1 + r + r2 + · · · ),
converge para valores de |r| < 1 a (1 − r)−1, donde el valor
r = (Π[2]C ((q
2))
(
1
q2−m2C
)
. Para tener un mejor entendimiento de
este resultado, la expresión es:
i
q2 − m2C
(1 − r)−1 =
i
q2 − m2C
1
1 − ΠC[2](q2)/q2 − m2C
=
i
q2 − m2C − ΠC[2](q
2)
(20)
Esta ecuación tiene una forma similar a la ecuación mos-
trada en la segunda regla de Feynman, que corresponde al
término de campo libre o término de línea:
i
q2 − m2C − i�
(21)
La integral se anula cuando se cumple la condición “mass-
shell” con q2 = m2C . Si se comparan las dos ecuaciones (20) y
(21), se observa que la ecuación correspondiente a los loops
cumplirá una condición de “mass-shell” modificada, de tal
forma que se anula la integral (tomando a ΠC[2](q2) como
un valor constante igual δm2C) cuando q0 = (q
2 + m2C + δm
2
C)
1
2
donde q0 y q son las componentes del cuadrimomento q.
Lo que implica esta relación, es un cambio en la masa de la
partícula que genera el campo solo por la presencia de las
espiras.
Para tener una mejor comprensión de esto, en la teoría de
estado sólido sucede algo similar; en un entorno eléctrico en
un metal, se presentan iones por la presencia de un campo
externo, esto produce una reducción en la respuesta de los
electrones de conducción presentes dentro del entorno, es
decir, debido a la presencia de los iones, el campo generado
por estos hace que la “facilidad”con la que los electrones
de conducción se muevan, se reduzca que, por último, se
puede entender como cambios inerciales de estos electrones.
Para este caso, el entorno es el vacío y lo que se presenta
en este es una disociación de C en pares A y B que luego
se recombinan para generar de nuevo a C, este proceso se
puede dar tantas veces se quiera (cuantos más procesos de
estos se presentan se tendrán mas términos de loops). Estos
cambios son los que en conclusión alteran la inercia de C y
produce los aparentes cambios de su masa.
Al tratar este fenómeno de la forma descrita anteriormente
se debe tener en cuenta un hecho relevante; para el caso de
los electrones en un material, la masa “libre” (con el electrón
fuera del material) y la masa “efectiva” (dentro del material)
de estos se puede medir ya que es posible sacar al electrón
de su entorno y ahí realizar la respectiva medición, pero
para el presente caso, este proceso no es posible realizarlo
debido a que no es posible sacar a la partícula C de su
entorno, es decir, del vacío, por tanto es necesario cambiar
la interpretación de la masa “libre” por la masa “efectiva”
debido a la existencia de las interacciones del vacío.
Gracias a la condición de “mass-shell” es posible
determinar una nueva cantidad llamada masa física de la
CROMODINÁMICA CUÁNTICA 13
partícula i-ésima m2f i,i = m
2
i + Πi(q
2) fijada por la condición
q2 − m2i − Πi(q
2) = 0. Esta nueva cantidad es posible
obtenerla a través del término Πi(q2) y del parámetro m2i
que está presente en el lagrangiano, pero determinar este
valor no tiene mayor importancia ya que esta cantidad es
posible determinarla experimentalmente, pero si en vez
de esto se busca determinar el valor de mi, es posible
eliminar la dependencia en el lagrangiano de ese parámetro
inobservable el cual es de segundo orden ya que el término
Π
[2]
i (q
2) corresponde a segundo orden. El objetivo de este
proceso es precisamente el mencionado anteriormente,
eliminar la dependencia del lagrangiano de ese parámetro,
esto es necesario ya que si permanece esta dependencia, no
sería posible solucionar el lagrangiano.
Este proceso se da con Π[2]C (q
2) fijo, pero este no necesa-
riamente lo es, por lo cual se requiere evaluar este término. Si
se expande alrededor del punto de interés que es q2 = m f i,C
se obtiene (igualmente, para un desarrollo completo de este
proceso se puede revisar (Aitchison y Anthony, 2003)):
i
(q2 − m2C)
[
1 − dΠ
[2]
C
dq2 q2=m2f i,C
]
+ O(q2m2f i,C)
2
(22)
donde el término O nos dice a qué orden se está tratando.
Para este caso es O(g2), es decir, de segundo orden. Este pro-
pagador es similar al propagador de campo libre (21), sin
embargo, en éste está presente el término extra:
1 − dΠ[2]Cdq2 q2=m2f i,C
−1
Que tras una expansión geométrica puede ser expresado
como:
1 +
dΠ[2]C
dq2 q
2=m2f i,C
Ahora, mediante la comparación con la teoría de estado
sólido se mostró que existen variaciones o alteraciones en el
estado de vacío, es decir, el propagador (21) que es la solu-
ción al propagador 〈0|T (φ̂C(x1)φ̂C(x2))|0〉 es alterado y ya no
representa el estado de vacío, por lo cual es necesario mo-
dificar este propagador para así poder aplicarlo al estado de
vacío exacto |Ω〉, esto es, 〈Ω|T (φ̂C(x1)φ̂C(x2))|Ω〉. En conclu-
sión, ya que en el “vacío”, existen fluctuaciones caracteri-
zadas por los términos de espiras descritos por la ecuación
(20), el propagador de campo libre ha de ser alterado por un
término de renormalización ZC que es:
ZC = 1 +
dΠ[2]C
dq2 q
2=m2f i,C
(23)
Así, el propagador es:
〈0|T (φ̂C(x1)φ̂C(x2))|0〉 =
∫
d4k
(2π)4
e−ik·(x1−x2)· iZck2 − m2f i,C + i� + cont. multipartículas
 (24)
donde se introducen las contribuciones de multipartículas
ya que en las fluctuaciones del vacío, se pueden generar
partículas que se crean y se destruyen continuamente
alterando el momento de las partículas A y B en este caso,
además el factor ZC juega sólo el papel de una constante de
renormalización que ha de ser introducida en el propagador
que a fín de cuentas está modificando el lagrangiano en un
factor proporcional a este.
Correcciones en el Vértice. Estas correcciones hacen
referencia a las posibles alteraciones en el vértice de los dia-
gramas de Feynman. Estas alteraciones tienen la forma mos-
trada en el diagrama (25).
B
A
A′
B
C
C
A
B′
(25)
Aquí, la partícula A con momento PA se disocia en una
partícula B y C, después B avanza hasta llegar al vértice don-
de se disocia en C y A, luego A se recombina con C para pro-
ducir a B con momento P′B. Estos procesos presentes en los
diagramas son llamadas espiras triangulares y son descritas
mediante:
−ig
i
q2 − m2C
(
−igG[2](P′A, P
′
B)
)
(26)
En este caso se realiza un desarrollo muy similar al
realizado en el caso de las correcciones de espiras, donde
G[2] es el factor que indica que existe un cambio en este caso,
para la carga “efectiva”, esto con el fin de, al igual que en
caso de las correcciones de espiras, eliminar la dependencia
en el lagrangiano de la cantidad inobservable g por una
cantidad medible g f i. Este proceso será tratado con mayor
detalle en la siguiente sección.
En conclusión, los efectos que producen estas correccio-
nes son:
14 JEICOT DELGADO
I. La condición de “mass-shell” de una partícula es alte-
rada y cambia el valor de m2i en el lagrangiano, por
el valor de m f i,i definido por la expresión: m2f i,i =
m2i + Π(q
2)
II. Los elementos matriciales del vacío del campo de una
partícula φ̂i han de ser renormalizadas por un factor√
Zi, que para un orden O(g2) y con i = C, es dada por
la ecuación (23)
III. Los propagadores, ahora poseen contribuciones de es-
tados de dos partículas en la teoría ABC, en otras pala-
bras, contribuciones de multipartículas.
IV. El factor de acoplamiento del lagrangiano de las inter-
acciones g se ha de cambiar por g f i
Los factores Πi(q2) y Gi(P′A, P
′
B) son llamados factores de
autoenergía, el primero es la autoenergía de la partícula i y el
segundo es la autoenergía en el vértice. Los diagramas como
los mostrados en el diagrama 14 son los que introducen las
correcciones en la masa, los correspondientes a 25 son los
que producen correcciones en el momento magnético de
las partículas y por último, ya que todas estas divergencias
siempre cambian la carga de las partículas, los dos tipos
de diagramas son los causantes de las correcciones sobre
la carga (D. Griffiths, 1987). Cabe recalcar que esto se
hace con el objetivo de eliminar la dependencia en el
lagrangiano de Λ, mediante la inclusión de parámetros
medibles experimentalmente. A esta teoría se le dió el
nombre de teoría de perturbación desnuda o en inglés Bare
perturbation theory.
Reglas de Feynman para QED
Hasta este punto se ha visto cómo la teoría de campos
junto con la teoría de perturbaciones, permite describir las
interacciones entre partículas cuales quiera, el objetivo,
ahora es aplicar todos estos resultados a la interacción entre
la materia y la luz, mas precisamente entre los electrones
y los fotones, los cuales ahora tienen una dependencia
adicional con el espín. Ya que esto solo afecta en la forma
del campo, no existe mayor complicación al compararla
con la teoría ABC, solo hay que tener en cuenta ciertas
implicaciones propuestas por la existencia del espín que se
ven representadas por la inclusión de las matrices de Dirac
γµ.
Las reglas correspondientes a QED son:
I. Notación, las líneas correspondientes a los electro-
nes serán representadas por = u(si)(pi) cuando entre y
= û(s j)(p j) cuando salga de un vértice, para el caso de
un positrón, su línea será representada por = v̂(si)(pi)
cuando entre al vértice y = v(s j)(p j) cuando salga de
este. Por último, para el caso del fotón su línea será
representada por y descrita por �µi (pi) cuando entra al
vértice y = �µ j∗(p j).
II. Por cada vértice introducir un factor igeγµ
III. por cada línea interna introducir un factor −igµνq2 si está
representa un fotón y γ
µq+mc
q2−m2c2 si representa a un electróno positrón.
IV. Por cada vértice incluir, al igual que en la teoría ABC,
un factor (2π)4δ4(p1 + · · · + pn + q1 + · · · + qn) corres-
pondiente a la conservación del momento y los signos
definidos según su dirección con respecto al vértice.
V. Por cada cuadri-momento k no fijado por la conserva-
ción del momento, tome la integración de:∫
d4k
(2π)4
Una integración sobre un cuadri-momento ocurre por
cada loop cerrado.
Al aplicar estas reglas con respecto a un diagrama de
Feynman definido, se obtiene el valor de la amplitud, o
la matríz Ŝ , y con esta es posible calcular la magnitud
física que se desee, por ejemplo las secciones transversales
(relacionadas con la probabilidad de que ocurra alguna in-
teracción en particular) o las tasas de decaimiento (permiten
definir los tiempos de vida medios de las partículas). Estas
reglas son determinadas a partir del uso de la ecuación de
Dirac a partir de la cual se determina el lagrangiano. El
proceso para esta derivación será mostrado en la sección
Invarianza.
Renormalización en QED. Mientras que en la teoría
ABC solo existía la divergencia en el ultravioleta, es decir,
cuando q → 0, en QED se presenta otro tipo de divergencia
cuando q → ∞, llamada divergencia en el infrarrojo.
Para el caso de la divergencia ultravioleta, los procesos
realizados anteriormente muestran que es posible eliminar
esta divergencia mediante el uso de la masa y la carga
física. Estas magnitudes son aquellas que son medidas bajo
la presencia de interacciones del vacío con la partícula y
son introducidas junto con el término de renormalización
(operación entre la constante de renormalización y estas
magnitudes físicas), para modificar el lagrangiano. Estos
términos son llamados contra términos, cabe recordar que
estos contra términos dan cuenta de las ”auto-energías“ que
en el caso de la teoría ABC aparecen por la presencia del
término ΠC(q2), el cual corresponde a la auto-energía de la
partícula C, de tal forma que ésta, partiendo de un diagrama
como el descrito por (13), es modificada al aumentar el
CROMODINÁMICA CUÁNTICA 15
orden, presentando los términos de loops dentro que, entre
otras cosas, implican procesos de creación y aniquilación
de partículas donde se tiene, al inicio de todo el proceso,
una partícula C y al final de este, la misma partícula pero
con un momento modificado. Otra implicación presente al
introducir estos contra términos es la redefinición de nuevos
valores de la carga y la masa que, para el caso de la teoría
ABC, son descritos por e = Z2Z1 e0Z
1/2
3 .
Para el caso de QED, no solo se presentan términos de
auto-energía de una sola partícula, por ejemplo para el elec-
trón, sino que también se presenta una auto-energía para el
fotón, así, se obtienen dos contra términos correspondientes
a estas partículas. Adicional a estos dos, se presenta un tér-
mino similar a G(P′A, P
′
B) que corresponde a la auto-energía
en el vértice, estos contra términos son:
i [k/(Z2 − 1) − δm]
−i(gµνk2 − kµkν)(Z3 − 1)
−ieγµ(Z1 − 1)
Donde Z2, Z3 y Z1 representan los factores de renor-
malización correspondientes a la inclusión de los contra
términos y cada uno da cuenta de una renormalización
específica, Z1 es la renormalización en el vértice, Z2 es
la renormalización en la intensidad del campo y Z3 es la
renormalización correspondiente a la polarización del vacío
(Aitchison y Anthony, 2003), estos presentan la igualdad
Z2 = Z1 gracias a la identidad Ward (esta identidad esta
íntimamente relacionada con la simetría gauge y permite
establecer una relación entre los factores de correlación.
Aunque no se hablará de esto en el presente trabajo, es
posible revisarlo en (Peskin y Schroeder, 1995)). Por último,
δm corresponde al cambio en la masa debido al fenómeno
de polarización del vacío. La divergencia en el infrarrojo se
presenta ya que en el término (21), el cociente se anulará si
se tratan con partículas sin masa, es decir, cuando m2C = 0
que es el caso del fotón. Eliminar esta divergencia es un
poco más complejo en su formalismo pero, la esencia central
es que los términos divergentes se van anulando uno a uno
al introducir contra términos tanto de fotones virtuales como
de fotones reales de forma similar a la introducción de los
términos de masa y carga física en la teoría ABC.
La inclusión de estas correcciones y consideraciones im-
plican modificaciones en los propagadores como ya se ha
mencionado, por lo cual también existirá una modificación
a la Ley de Coulomb. Un propagador de la forma −g2s(q
2 +
m2u)
−1 se puede interpretar, tras realizar la transformada de
Fourier respectiva, como el potencial de Yukawa (se discuti-
rá sobre este potencial la sección Cromodinámica Cuántica)
que tiene la forma:
−g2s
(4π)
e−r/m2ur
 (27)
Si se toma el caso del fotón, donde m2u = 0, se obtendría
−g2s/4πr el cual es el mismo potencial de Coulomb (teniendo
en cuenta que el valor de �0 = 1). Esto nos da indicios de
cómo ha de comportarse el propagador y así, para el caso de
QED, el propagador tendrá la forma (tras realizar la expan-
sión del denominador al igual que se hizo con la ecuación
(20)):
(−igµν)
q2
(
1 + Π̄[2]γ (q
2)
)
(28)
que al considerar el caso estático donde el cuadrimomento
q2 = −q · q el potencial tendrá la forma:
igµν
q
+ igµν
α
15π
1
m2
(29)
Tras aplicar la transformada de Fourier se obtiene, para el
primer término, el potencial de Coulomb, ya que este tiene
la forma de (21) sin la masa, y el segundo término es una
función δ. Este segundo término se puede entender como si
fuese una perturbación en los átomos, por ejemplo, para un
proceso de dispersión.
La ecuación (28) tras unos pocos ajustes, muestra una ca-
racterística de gran importancia:
e2(q2) = e2
(
1 + Π̄[2]γ (q
2)
)
(30)
donde se transformó el factor gµν que esta relacionado con
la carga eléctrica. Debido a que el factor Π̄[2]γ (q2) depende
de q, la carga eléctrica dependerá ahora de esta. También es
posible hacer el siguiente cambio α = e2/4π se obtiene:
α(q2) = α
(
1 + Π̄[2]γ (q
2)
)
(31)
Al introducir el factor Π̄[2]γ (q2) trás su integración se ob-
tiene:
α(Q2) =
α
1 − α/3πln(Q2/Am2)
(32)
con A = e5/3. Esta ecuación muestra las variaciones
de la constante de acoplamiento al variar la energía o
transferencia de momento y, ya que depende de Π̄[2]γ (q2),
depende implicitamente de la constante de renormalización
Z3 la cual esta asociada a las fluctuaciones del vacío.
Podemos entender de mejor manera estos efectos a partir
de los dieléctricos. Aquí, cuando se introduce una carga +q
y otra −q de prueba, las moléculas del material dieléctrico
se alinearán con las líneas del campo producido entre estas
dos cargas, este efecto hace que se genere un momento
16 JEICOT DELGADO
dipolar inducido en las moléculas, produciendo, a su vez,
un campo eléctrico, todo ese proceso, en últimas, hace que
se disminuya el campo eléctrico entre las cargas de prueba
por un factor (1 + χ)−1 = �0/� donde χ es la permeabilidad
del material, �0 es la permitividad en el vacío y � es la
permitividad del material. Este efecto hace que la carga
efectiva dependa de la permitividad del material que, a su
vez, varia con la distancia de separación entre las cargas.
En síntesis, la carga ya no es la inicial si no tendrá un
decremento en su magnitud y pasará a ser una carga efectiva.
En el caso de QED, se presenta una polarización del
vacío, ver Figura 8, esto es, una alineación de los pares de
partículas con respecto al campo producido por una carga
de prueba presente en éste. Hay que tener en cuenta que
estos pares de partículas son introducidas gracias a que se
puede tomar prestada una cantidad de energía ∆E del vacío
para producirlas, siempre y cuando la devuelva dentro de
un intervalo de tiempo ∆t ' ~/mc2 dado por el principio
de incertidumbre, así los pares podrán, en este transcurso
de tiempo, recorrer una distancia c∆t ' ~/mc2. Ya que
este proceso se puede producir en múltiples ocasiones se
generará, al rededor de la carga de prueba, una nube de pares
de partículas que realizarán elmismo efecto de reducción
en la carga explicado anteriormente con los dieléctricos.
Entonces, cuando se desee medir la carga de la partícula
de prueba, entre más se aleje de esta, menor va a ser su
carga medible, y por el contrario, cuando más se acerque
a esta, mayor va a ser la carga medida, de esta forma la
carga de prueba que se suponía era desnuda, pasa a ser la
carga efectiva, este efecto es llamado apantallamiento. Este
fenómeno será ahondado con mayor claridad en la sección
Problemas de la teoría de campos. Un hecho importante
sobre esto es que todas las contribuciones pueden ser
sumadas explícitamente, es decir, cada uno de los efectos
producidos por cada uno de los pares pueden ser calculados
independientemente y luego ser sumados.
Figura 8. En esta imagen se muestra una representación gráfica e
la polarización del vacío. Ya que el vacío esta densamente poblado,
cuando se presenta una carga en este medio, estos son alineados de
tal forma que disminuyen la magnitud de la carga.
Por último, las teorías pueden ser clasificadas según su
renormalización, teorías como la teoría ABC son super-
renormalizables, esto indica que tienden a tener mayor
facilidad para realizar su renormalización ya que las
divergencias no son tantas; ahora, teorías como la QED
son teorías renormalizables, que implica la existencia de
mas términos divergentes por lo cual se han de introducir
nuevos contra términos asociados a nuevas magnitudes
físicas (con magnitud física se hace referencia a cantidades
reinterpretadas según se presente el apantallamiento o
proceso similar, que a fin de cuentas, son las magnitudes
medibles experimentalmente) como por ejemplo las can-
tidades g f i y m f i,i, y por último, están las teorías que no
pueden ser renormalizadas, como es el caso de la teoría de
la gravedad. Para explicar esto, se ha de tener en cuenta
que el proceso de renormalización consiste en introducir un
contra término por cada divergencia que exista, estos contra
términos se van presentando si existen dentro del lagrangiano
como era el caso de g y mi desnudas, entonces, por cada
divergencia, es necesario obtener una magnitud física, pero
no existe la suficiente cantidad de magnitudes dentro del
lagrangiano para sopesar las divergencias presentes en estas
teorías, así que es necesario introducir una nueva magnitud
física para obtener un nuevo contra término que sopese la
divergencia. Sin embargo, al aumentar el orden se presenta
una nueva divergencia por lo cual, de nuevo se necesitaría
otra magnitud física, y si se sigue aumentando el orden se
seguirán presentando una a una, nuevas divergencias por lo
cual se necesitarían infinitas magnitudes físicas. Por estos
motivos, estas teorías no son renormalizables.
Existe un modo fácil de saber si una teoría es renorma-
lizable o no, y es determinado mediante la dimensión de la
constante de acoplamiento. Para el caso de la teoría ABC la
constante de acoplamiento g tiene dimensiones de M1, es de-
cir, dimensiones de masa con exponente positivo, y la teoría
es super renormalizable. En el caso de QED la constante de
acoplamiento e es adimensional, por lo cual es una teoría
renormalizable y por último, la teoría de la gravedad no es
renormalizable ya que la constante de acoplamiento G tie-
ne dimensiones de M−2, es decir, dimensiones de masa con
exponente negativo. En lo que concierne a este trabajo, no
se trataran con teorías no renormalizables. Cabe mencionar
que todas las teorías gauge o de campo son teorías renorma-
lizables, un ejemplo de éstas es la cromodinámica cuántica
(D. Griffiths, 1987).
Cromodinámica Cuántica
A comienzos del siglo XX se buscaba entender cual era
la estructura interna del átomo, con este objetivo en mente,
empezaron a surgir teorías que intentaban dar explicación
a esto donde, en una primera aproximación, Thomson
CROMODINÁMICA CUÁNTICA 17
planteó su modelo atómico el cual consistía en elementos
cargados negativamente puestos en un mar o espacio de
carga positiva, similar a un pastel de pasas donde la carga
positiva es la corteza de este y la carga negativa son sus pasas.
Este modelo tuvo una gran acogida ya que explicaba
sin problemas la existencia del átomo. Sin embargo,
Geiger y Marsden en 1909 realizaron un experimento de
colisión de partículas α contra una placa delgada de oro
del orden de 10−5cm, propuesto por Rutherford, donde los
resultados indicaban la dispersión de algunas partículas a
ángulos iguales o por encima de 90◦. Estos resultados eran
sorprendentes ya que como dijo Rutherford ”pareciese como
si un cascarón sólido rebotara tras chocar con una hoja de
papel“(Aitchison y Anthony, 2003).
Para entender de mejor manera este resultado, tengase
en cuenta que el número de partículas dispersadas debía
decaer exponencialmente a medida que aumenta el ángulo
de dispersión según el modelo atómico de J.J. Thomson,
cualquier desviación con respecto a este decaimiento
mostrará entonces señales de dispersiones fuertes. Geiger
y Marsden encontraron que 1 en 20000 partículas α eran
dispersadas a ángulos mayores o iguales a 90◦, para el
modelo de Thomson, la dispersión a grandes ángulos no era
que no se pudiese presentar, pero este evento sucedería en 1
de cada 103500 partículas α (Eisberg y Resnick, 1985). Esto
evidenciaba que existía un error en el modelo de Thomson,
ya no tenemos una distribución de carga homogénea
distribuida por todo el átomo, si no que esa carga ha de
estar concentrada en algún punto específico llamado átomo.
Rutherford fue mas allá de esta explicación cualitativa, y
demostró que la distribución angular para un átomo con
estas características tenía la forma de sen−4φ/2, que luego
fue confirmado en un artículo escrito por Geiger y marsden
en 1913, donde mostraba que esta forma característica se
presentaba para placas de oro y de plata. La Figura (9)
muestra la cantidad de centelleos o partículas detectadas
versus el ángulo de dispersión con respecto al centro de masa
del sistema. Esto fue una prueba directa de la existencia de
un núcleo dentro del átomo y debido a las diferencias en
las dispersiones para partículas cargadas eléctricamente se
mostró que este núcleo estaba cargado positivamente.
Figura 9. en esta gráfica se muestra la cantidad de centelleos por
cada ángulo dispersado. Si no existiese el núcleo, la distribución
decaería linealmente.
(Aitchison y Anthony, 2004)
Tras obtener este gran logro, la investigación continuaba y
tras comparar la diferencia entre las masas de los diferentes
átomos de los elementos con respecto al átomo de hidrógeno,
se evidenció una diferencia en las masas de las partículas que
no podía ser explicado si el núcleo solo consistía de protones
(D. Griffiths, 1987). Estos análisis mostraron la existencia de
constituyentes del núcleo de dos tipos, uno cargado positiva-
mente (protones) y un segundo descubierto por Chadwick en
1932 con carga neutra (neutrones) (Wilczek, s.f.). La carga
eléctrica permite al átomo existir en un estado base ligado,
es decir, un estado de menor energía donde el núcleo esta-
ba ligado con los electrones (carga negativa) y permitían la
existencia del átomo, Sin embargo, no era posible explicar
la ligadura que existía en el núcleo pues este, al poseer 2
entes uno con carga positiva y otra neutra, no podían estar li-
gados mediante una interacción electromagnética proponién-
dose así la existencia de una nueva fuerza o interacción. Esta
nueva interacción debía:
I. Tener un rango muy corto de alrededor de 2 Fermi (1
Fermi o fentómetro es una unidad de longitud y es
equivalente a 1 × 10−15m) pues no existía evidencia
de esta fuera de los nucleones (protones y neutrones),
cuyo diámetro es de 2.5 Fermi.
II. Ser independiente de la carga. Esto es explicado ya que
los niveles de energía de los estados base y excitados
de distintos átomos, como ejemplo el Litio y Berilio
con Z=3 y Z=4 respectivamente, con cantidad de pro-
tones menor en el Litio, eran muy similares y si el po-
18 JEICOT DELGADO
tencial dependía de la carga deberían ser muy distintos.
Estos niveles

Otros materiales