Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Análisis de las propiedades de la cromodinámica cuántica a partir de la comparación con las propiedades de la electrodinámica cuántica. Delgado Jeicot, Munevar Edwin Universidad Distrital “Francisco José de Caldas”, Facultad de Ciencias y Educación Grupo de Física e Informática “FISINFOR” The Quantum Chromodinamics or QCD, born as an attempt to know the behavior and the structure of the nucleus, where the atomic model proposed did not explain how could exist a state such a proton-neutron inside of those. This works pretend to be an introduction to QCD for undergraduate students, this going to be achieve by the comparison between this and the most succesful quantum field theory, the quantum electrodinamics or QED. Here we will build a picture like a resume, where the main properties and differences from those two theories are going to be displayed qualitatively, one of this properties is the asymtotic freedom, a crucial property that trans QCD into an appropriate theory for the strong interaction which bind the proton and neutron. Aside of this, we are going to do a short remark about the presedent theories who helped to build the strong theory, from the Yukawa’s theory to Politzer, Wilczek and Gross theory who after a rigorous effort found that QCD is the most appropriate theory for surprise of the scientific community. Palabras clave: Quantum Chromodinamics, Quantum Electrodinamics, atomic models, asymtotic feedom. Desde las primeras teorías como la de Empédocles que proponía la existencia de cuatro constituyentes fundamen- tales el agua, el aire, el fuego y la tierra, u otras aún más antiguas como la propuesta en la India donde se mencionaba siete elementos fundamentales, siempre se ha buscado cual es o cuales son esos elementos constituyentes de la materia y cada vez se ha estado más cerca de la verdad. Cuando J.J. Thomson propuso su modelo del “pie de uvas”, y Rutherford junto a sus colaboradores empezó a pulirlo hasta llegar al modelo de Sommerfield, se pensaba que ya se tenía una teoría bastante buena y apropiada sobre la constitución de la materia, solo bastaban tres partículas elementales, el neutrón, el protón y el electrón, para conformar todos los elementos conocidos y toda la materia existente, sin Jeicot Delgado, Proyecto Curricular de Licenciatura en Física, Grupo de Física e Informática “FISINFOR”, Facultad de Ciencias y Educación, Universidad Distrital “Francisco José de Caldas”. Este trabajo de grado fue financiado por el Centro de Investiga- ciones de la Universidad Distrital (CIDC). Especial agradecimiento a mis padres que hicieron posible mi educación. Trabajo de grado como requisito para optar por el título de: “Li- cenciado(a) en Física” de la Universidad Distrital “Francisco Jose de caldas”. Código estudiante: 20071135016, jeicotdelgado@gmail.com, Bogotá, Colombia 2016. embargo, existía un pequeño problema dentro del átomo, no se sabía como un protón podía convivir con un neutrón en el núcleo ya que estas no estaban ligadas eléctricamente, cómo era posible que un núcleo fuera estable sabiendo que no existía ninguna fuerza, hasta el momento, que pudiera dar cuenta de esta atracción entre estas dos partículas. Solo fue hasta que se pensó un nuevo tipo de interacción, llamado interacción fuerte, que los científicos empezaron a aproximarse a esa verdad oculta detras del núcleo que permitió entender en gran medida cómo estaba constituida la materia y, primordialmente, cómo esta interactuaba. La teoría de la cromodinámica cuántica o, por sus siglas en inglés, QCD quantum cromodynamic, es una teoría sobre la interacción fuerte con un marco matemático bastante robusto, pero tiene la ventaja de poder explicar el cómo esta compuesta la materia junto con la teoría electrodébil, dentro del marco del modelo estándar. Esta es una teoría que tuvo bastantes altibajos, cada vez que se pensaba que se estaba próximo a una teoría apropiada, surgían evidencias de algo más allá, muchas veces un problema más complejo que el anterior, que desemboca en el problema actual de la teoría de Lattice QCD que se sale del objetivo de este texto. Partiendo desde la teoría de Yukawa, hasta llegar a la cromodinámica cuántica propuesta por David Gross, Wilzek y Politzer, la interacción fuerte ha dado sorpresas, y que 2 JEICOT DELGADO mayor sorpresa que la existencia de un comportamiento extraño de los constituyentes, ese concepto llamado libertad asintótica, concepto que, gracias a un solo signo y una interpretación formidable de este, hace que la teoría cobre un éxito mucho mayor que cualquier otra teoría que trate sobre esta interacción. Solo basta con recordar las palabras de David Gross en lo que respecta al descubrimiento de este signo que rige el comportamiento asintótico: ´´Like an atheist who has just received a message from a burning bush, I became an immediate true believer. (Gross, 1999) (Al igual que un ateo quien acaba de recibir un mensaje de un arbusto en llamas, me convertí inmediatamente en creyente).” Este texto tiene como objetivo mostrar en que consiste la teoría de la cromodinámica cuántica, esto mediante los he- chos históricos que la llevaron a la cumbre y la comparación con su teoría hermana, la electrodinámica cuántica o, por sus siglas en inglés, QED (Quantum Electrodynamic). En este texto, también se busca orientar e interesar a los estudiantes de la Universidad Distrital, más precisamente, a los estudian- tes de licenciatura en física, para que continúen el presente trabajo aportando a la construcción de esta teoría bastante interesante. Tenga en cuenta que este trabajo no propone ser un soporte riguroso de cada uno de los desarrollos teóricos de la interacción fuerte, por lo cual, no posee un lenguaje matemático formal ni muestra desarrollos analíticos preci- sos, su enfoque tiende a ser más conceptual mostrando las interpretaciones de los procesos mostrados, sin embargo, es de importancia que el lector posea unos conceptos básicos sobre la mecánica cuántica y la teoría de perturbaciones. Electrodinámica Cuántica La teoría de la electrodinámica es una teoría que se enfoca en explicar fenómenos naturales en los cuales interactúan, tanto la electricidad como el magnetismo, con la materia; estos fenómenos son explicados mediante las ecuaciones de Maxwell. En su componente macroscópica, el electromagne- tismo se centra en estudiar los fenómenos donde se encuen- tran presentes cargas en movimiento o estáticas y cómo estas influyen en el comportamiento del sistema bajo estudio. Para el caso microscópico, los procesos son tratados mediante la mecánica cuántica la cual tuvo éxito al explicar los fenóme- nos presentes dentro del átomo. Breve Reseña Sobre la Electrodinámica Clásica La electrodinámica clásica se planteó como una teoría que intentaba explicar el comportamiento de la materia cuando esta interactuaba electromagnéticamente. Una de las primeras aproximaciones formales propuestas para explicar esta interacción proponía la existencia de constituyentes o partículas por medio de las cuales la interacción electromag- nética se presentaba, Newton, en 1704, propuso la existencia de unos entes mediadores que indicaban la presencia de una carga eléctrica y cómo esta se comportaba(D. J. Griffiths y College, 1999). Él realizó un gran aporte al entendimiento de cómo la luz interacciona con la materia a partir de su interpretación de la luz en forma de partículas o corpúsculos. De este modo, logró explicar la mayoría de los diferentes fenómenos que presenta la luz, sin embargo, una de las grandes complicaciones se presentó al intentar explicar el fenómeno de reflexión, más específicamente, la reflexión parcial. En este proceso, la luz atraviesa una sustancia y solo una porción de luz es reflejada mientras que la otra porción es transmitida. Considere el siguiente arreglo experimental: se tiene un vidrio el cual es iluminado con luz monocromática (de un solo color, por lo tanto una única frecuencia) de forma tal que el vidrio permite que solo el 4 % de la luz sea reflejadamientras que el 96 % es transmitida y es medida por un detector B que se encuentra encerrado dentro del vidrio. El esquema de este proceso se muestra en la Figura 1. Figura 1. En esta imagen se muestra que el 96 % de la luz es trans- mitida y detectada en B, mientras que el otro 4 % es medida por el detector A Si se introduce una capa delgada de vidrio después de una primera capa igualmente delgada se esperaría, bajo la explicación corpuscular (en términos de partículas) de la materia, que aproximadamente un 4 % de luz vuelva a ser reflejada, pero lo que en realidad sucede en este fenómeno, es que no se refleja un total del 8 % de la luz, si no un 16 % (Figura 2). Si se disminuye la distancia de separación entre las dos capas de vidrio se reduce el porcentaje de luz reflejada y pasa a un 10 % y cada vez que se disminuye el espaciamiento, el porcentaje decae hasta un valor de cero. En el caso contrario, al aumentar la distancia de separación también se produce un decremento en el porcentaje de luz reflejada gradualmente hasta llegar a un valor igualmente de cero. Bajo la interpretación propuesta, este fenómeno era totalmente desconcertante ya que, ¿cómo podría depender la cantidad de partículas reflejadas de la distancia entre las CROMODINÁMICA CUÁNTICA 3 dos capas?, Este fenómeno produjo una gran complicación en la interpretación de la luz como una partícula y fue un gran problema para Newton el poder explicarla. Para tratar de defender su aseveración llego a proponer que los corpúsculos de luz se comunicaban de alguna forma y le enviaban información al otro corpúsculo definiendo si podía pasar o no. Esta fue una de las primeras nociones de campos interactuantes, sin embargo, era totalmente descabellado que su comunicación se basara en un elemento mediador entre estos ((Feynman, 1985)). Figura 2. Esta imagen muestra un arreglo experimental similar a la Figura 1, con la inclusión de una capa delgada adicional modifi- cando enormemente el comportamiento de la luz En esa misma época, existía otra interpretación de la luz, liderada por Huygens, la cual consistía en tratarla como si fuese una onda, pero, al igual que la interpretación corpuscular, la teoría permitía explicar una gran variedad de fenómenos incluyendo el fenómeno de la reflexión parcial, sin embargo, cuando un foto detector (aparato que permite detectar cuando llega la luz a este mediante un tic) es irradiado con luz monocromática y se comienza a disminuir gradualmente la intensidad de luz, no se disminuye la intensidad del sonido como predecía la teoría ondulatoria, si no aumenta la separación del sonido de cada tic, fenómeno en el cual la interpretación corpuscular sale triunfante. Ambas teorías tenían sus logros y sus desventajas, pero la prueba reina que mostró el extraño comportamiento de la luz fue el experimento de la doble rendija, Figura 3, este consiste en establecer una barrera en medio de un haz de luz mono- cromático alineado con un foto detector. A esta barrera se le abren dos orificios uno de estos alineado y el otro ligeramen- te desplazado del otro. Cuando uno de los orificios A o B es tapado, el foto detector suena un 2 % de las veces, de tal forma que la luz pasa por B o A, ahora si se destapan los dos orificios se esperaría que el foto detector sonara o detectara un 4 % de las veces pero en vez de esto, el suena un 8 %, además este valor varía según la distancia de separación en- tre los orificios. Hasta este punto, se pensaría en la luz como una onda, no obstante, si se modifica ligeramente este expe- rimento introduciendo dos foto detectores en los orificios A y B, estos suenan un 2 % de las veces de forma individual y el foto detector último un 4 % sin que su valor varíe según la distancia de separación entre los orificios. Este fue un hecho desconcertante por lo cual se pensaba que la luz se compor- taba según el tipo de experimento que se iba a realizar, en algunos casos esta lo hacia como partícula (cuando se ponían los detectores en los orificios A y B) y en otros como ondas (cuando los orificios no tenían tales detectores), por lo cual fue llamada dualidad onda-partícula. Figura 3. La imagen muestra el arreglo experimental con el cual se evidencia la ”dualidad onda-partícula“. Cuando los dos orificios se encuentran abiertos, la luz se comporta como una onda producien- dose un patrón de interferencia en D. Si se tapa un orificio, la luz se comporta como partícula produciendose la detección de un haz de partículas en D. Electrodinámica Cuántica como Teoría Cuántica de Campos A partir de estos experimentos, fue necesario revisar la teoría y se propuso la electrodinámica cuántica o QED por sus siglas en inglés (Quantum Electrodynamics). Esta propone que la luz esta compuesta por partículas caracterizadas por un vector que las representa y cuya magnitud está relacionada con la probabilidad de que un proceso, por ejemplo la trasmisión de luz en el caso de la reflexión parcial, se de. Adicional a esto, su dirección está variando continuamente y depende de la frecuencia de las partículas (similar a las manijas del reloj que están rotando constantemente y cuya rotación dependen de la frecuencia característica del minutero, segundero y el horario, pero en una versión mas rápida), de esta forma se pasa a tener una interpretación probabilística de los fenómenos de la luz. Como prueba a la teoría, es posible explicar los fenóme- nos mencionados anteriormente usando esta interpretación, de tal forma que para el primer fenómeno consistente en irra- diar con una fuente de luz monocromática un vidrio (que in- dica que tiene una frecuencia o una velocidad de rotación del vector fija), se tiene en la primera parte del fenómeno y para el caso de una partícula con vector de magnitud 0.2 unidades, una probabilidad del 4 % de que la luz sea reflejada. Don- de esta probabilidad es determinada tomando el cuadrado de su magnitud, que es 0.04 y que representa la probabilidad de que el evento o proceso se de. Para la segunda parte en la cual se introduce otra capa delgada de vidrio se produce 4 JEICOT DELGADO una probabilidad igual para la primera capa, pero ahora la segunda puede alterar el fenómeno, si la partícula que fue reflejada por la segunda capa llega al mismo tiempo que la reflejada por la primera pero con dirección totalmente con- traria, estos se restarán y producirán una probabilidad de 0 (0.2 de la primera capa menos 0.2 de la segunda), pero si se varia la distancia de separación alejando la segunda capa, la partícula reflejada por esta tendrá mas tiempo de girar hasta llegar a la misma dirección que la primera y se producirá una probabilidad de 16 % (0.2 de la primera partícula mas 0.2 de la segunda produce un vector de 0.4 cuyo cuadrado es 0.16, en la Figura 4 se muestra un esquema de cómo se realiza esta suma). Figura 4. En esta imagen se muestra, esquemáticamente, la suma vectorial de los vectores de dos partículas que llegan con la misma dirección al detector. Cuando esto se produce, se presenta una in- terferencia constructiva entre estos, aumentando la probabilidad de ser detectados. De esta forma es posible explicar como se presenta estos fenómenos en términos de probabilidades siendo coherente con los valores experimentales y porqué en algunos casos se detecta la luz y porqué en otros no. Uno de los aspectos más importantes en esta teoría, es un postulado propuesto por Feynman (Feynman, 1985) el cual indica que todos los pro- cesos que se presentan o se puedan presentar en el fenómeno han de ser tomados, es decir, sin importar como se de el pro- ceso, se han de tener en cuenta todas las posibles formas en que se pueda llevar desde un estado inicial (emisión de la luz monocromática sin interactuar) hasta un estado final (detec- ción de la luz por el detector), de esta forma se incluyen tanto los procesos en los cuales la luz toma los caminos “clásicos”, que son aquellos donde la luz le toma menos tiempo en llegar al detector (como ejemplo, la luz siendo transmitida por el primer vidrio, luegosiendo reflejada por el segundo, después siendo transmitida por el primero para luego ser detectada), junto con todos los demás caminos donde no toma el camino más rápido (por ejemplo, la luz siendo transmitida por la pri- mera capa del vidrio, luego siendo reflejada por la segunda capa para ser reflejada de nuevo por la primera capa, llegando a la segunda donde, de nuevo, es reflejada y cuando llega a la primera capa por tercera vez, es transmitida para luego ser detectada). Esto es mostrado esquemáticamente en la Figura 5 Figura 5. En esta imagen se muestra uno de los posibles caminos que puede tomar la luz en el experimento. Para poner a prueba el argumento propuesto por Feynman acerca de todos los caminos posibles que la luz puede tomar, es necesario poner a prueba la teoría de la electrodinámica cuántica, por esto, se tratará el fenómeno de reflexión, donde la luz es reflejada al chocar o interaccionar con una superfi- cie. El experimento consiste en alinear una fuente de luz mo- nocromática S y un detector P, con un obstáculo en medio de ellos. Debajo de estos se pone un espejo en paralelo con la alineación, de tal forma que la luz de la fuente sea reflejada en éste para luego ser detectada como se muestra en la Figura 6. Figura 6. En esta imagen se indican los posibles caminos que pue- de tomar la luz para llegar al detector, incluyendo aquellos caminos clásicos (caminos del tipo S − A − P). La explicación bajo la interpretación de la teoría es que los caminos que están en el centro tienden a reforzarse ya que la diferencia entre sus caminos (el tiempo que duran girando) son similares y así sus magnitudes o probabilidades tenderán a estar alineadas e interferirán constructivamente, esto es, los caminos con puntos de reflexión G y H en la figura 6 se reforzarán y por tanto serán detectadas, pero en el caso de los caminos que van hasta el extremo del espejo,como los caminos A o M, sus vecinos B o K tendrán una diferencia de caminos notoria debido a que tienen que recorrer mayor trayecto, por lo cual se producirá una interferencia destructiva que resultará en la anulación de la amplitud y no se detectará luz que haya tomado los caminos CROMODINÁMICA CUÁNTICA 5 correspondientes a los extremos del espejo. Según la interpretación de Feynman, se produce reflexión en los extremos del espejo pero no son detectados debido a que sus vecinos interfieren destructivamente, sin embargo, si se modifica el espejo eliminando la reflexión de aquellos caminos que interfieren destructivamente y solo se dejan los que llegan con la misma dirección, se debe producir detec- ción de estos últimos, esto puede ser logrado cubriendo la parte del espejo correspondiente a los caminos B o K de la Figura 6 que interferían destructivamente con los caminos A o M1. Un esquema de este experimento es mostrado en la Figura 7 Figura 7. En la figura se muestran un conjunto de haces que inci- den en el espejo modificado y son detectados en distintas posicio- nes. Su detección depende de la frecuencia de cada haz de luz. Efectivamente, al realizar este experimento con esta modi- ficación se produce detección en los extremos del vidrio. Este hecho hace que la teoría salga triunfante al poder explicar los fenómenos de la luz, además de aquellos que son poco pro- bables o aquellos que ni siquiera se pensaba que existieran, como el mostrado anteriormente. Construcción de una Teoría Cuántica de Campos En el último siglo, se ha logrado comprender y pro- fundizar mucho más en el mundo físico y cómo este se comporta debido a diferentes fenómenos como por ejemplo el comportamiento de la luz y su interacción con la materia, que es uno de los de mayor interés en el presente trabajo y con el que se ha trabajado de forma descriptiva. En su mayoría, estos avances han sido alcanzados gracias a la mecánica cuántica, y esto nos permite establecer o por lo menos asimilar de forma acertada, que esta teoría describe de forma correcta el mundo físico. La gran complicación que posee esta teoría es su complejidad, solo es posible aplicarla a problemas que son, en su descripción, un poco más simples, y cuando se intenta generalizar o incluir mas interacciones, esta empieza a presentar fallas o simplemente no es posible obtener una descripción del fenómeno debido a su complejidad en el formalismo. Este problema no se había presentado en las teorías predecesoras y no se presenta actualmente si se usa la mecánica clásica entonces, ¿por qué no partir desde este punto e ir construyendo una teoría que se aproxime de la mejor forma a la teoría cuántica?. Este es uno de los objetivos que se llevaron a cabo en el último siglo, sin embargo, no fue una tarea fácil de realizar. Uno de los intentos mas resaltantes se da a partir del hamiltoniano, una cantidad que permite conocer cómo es el comportamiento de un sistema por lo cual es de gran importancia; cuando se presenta el caso donde el hamilto- niano es independiente del tiempo, se cumple que este es igual a la energía del sistema. Tras obtener esta cantidad, es posible desarrollar unas reglas que permiten tener un primer acercamiento a una teoría cuántica. No obstante, este no es un proceso fácil de realizar, hasta algunos físicos piensan que este problema es de carácter fundamental y no ha de ser realizado a través del hamiltoniano y han realizado distintos intentos de producir una nueva forma de alcanzar una teoría cuántica sin necesidad de este. Para Dirac, el hamiltoniano si es de vital importancia y si se presenta el caso donde este no sea el ente fundamental para realizar este proceso, ha de serlo una cantidad similar a este o un concepto mas generalizado del mismo (Dirac, 1964). Es necesario entonces usar el hamiltoniano, sin embargo, el mundo cuántico involucra elementos que tienen la posibilidad de moverse a velocidades cercanas a la de la luz o incluso iguales, y el hamiltoniano presenta un gran problema, no es invariante ante transformaciones relativistas. Esto implica que no es posible trabajar dentro de un marco relativista con el hamiltoniano ya que al realizar cualquier transformación de este tipo, por ejemplo una transformación espacial, las cantidades que son descritas por medio del hamiltoniano cambiarán y no estarán describiendo una cantidad real. Para eludir este problema, es posible usar una función diferente, llamada Lagrangiano, este es definido a partir de la acción, que es una función que define como se da y trayectorias puede seguir un proceso. El lagrangiano tiene la propiedad de ser invariante ante transformaciones relativistas por lo cual es adecuado para tratar fenómenos en el mundo cuántico. Ahora, si este es tan efectivo dentro del mundo cuántico, ¿por qué no usarlo para obtener una teoría cuántica apropiada?. Es posible realizarlo, sin embargo, solo para algunos casos particulares, pero ya que se busca obtener una interpretación total del mundo a través de una teoría cuántica, es necesario obtener algún tipo de generalización para plantear la teoría. En síntesis, el camino para obtener una teoría cuántica parte desde el lagrangiano, pasa por el hamiltoniano como un punto intermedio, y después de esto, se obtiene una 1Los diferentes caminos que puede tomar la luz dependen, a su vez, de la frecuencia de esta, por ejemplo, donde se detectan los haces de frecuencia roja, los haces azules no son detectados ya que en ese punto se producirá una interferencia destructiva, y viceversa. 6 JEICOT DELGADO aproximación a una teoría cuántica. No es posible acortar el camino debido a los problemas mencionados anteriormente, entonces, el camino ha de realizarse completo y es, obtener la acción del fenómeno para así poder identificar cual es el lagrangiano, obtener una ecuación similar a la de Euler- Lagrange, que es una ecuación de movimiento donde se incluye el lagrangiano, identificar el momento asociado a la variable dinámica, realizar la cuantización con las variables dinámicas involucradas, para así obtener una teoría cuántica. Todo este recorrido se ha realizado paraintentar describir cómo se da un fenómeno y cómo se comporta el sistema bajo las interacciones que se presentan en este. Una de las ventajas de esto es que sin importar que sean una o varías partículas las que conformen el sistema y sean las que estén interactuan- do, el sistema siempre será descrito mediante una función de onda. Este sistema, gracias a DeBroglie y Schrödinger, puede ser interpretado como una función de onda y toda función de onda puede ser interpretada como un campo ya que esta pue- de ser expandida en operadores de modo, que representan un campo (Cohen-Tannoudji, J., y Grynberg, 1997). Esta fun- ción de onda o campo es quien describe el comportamiento del sistema, así, si se pone a evolucionar esta en un tiempo t, se puede determinar qué pasó con esta y cómo interactuó en un tiempo t. El poner a evolucionar a la función de onda en el tiempo se le conoce como punto de vista o representación de Schrödinger y esta evolución es determinada mediante la ecuación: Ĥ |Ψ(t, x)〉 = i~ d dt |Ψ(t, x)〉 (1) esta función describe el movimiento de la partícula, y tras conocer el hamiltoniano Ĥ es posible conocer cómo esta partícula se comporta en todo el proceso, conociendo así el comportamiento de la partícula en su totalidad. En algunos casos es un poco complejo obtener una des- cripción apropiada de la función de onda, entonces se cam- bia el objeto de estudio, pasando a ser los operadores los que evolucionarán en el tiempo y permitirán definir el valor del observable (cantidad física) para ese tiempo específico, este punto de vista o representación, es llamada representación de Heisenberg y es definido mediante la ecuación: ˙̂O(t) = i ~ ([Ĥ(t), ˆO(t)] (2) en la cual ya no se busca la función de onda si no cómo es el comportamiento de los operadores (Ô(t)) con respecto a t. Como se había mencionado anteriormente, el plantear una teoría cuántica no es un proceso fácil, se ha de tener la acción del sistema para poder calcular el lagrangiano, que permite determinar el hamiltoniano del sistema, para luego usar una de las representaciones, ya sea la representación de Schrö- dinger o la de Heisenberg, y así conocer el comportamiento de la partícula en distintos intervalos de tiempo. El problema es que el hamiltoniano no tiene una solución simple para QED, presenta grandes complicaciones al tratar de hacerlo que, en su mayoría, residen en la determinación de los términos de interacción del sistema, y estos son los términos de mayor interés ya que son los que definen cómo se puede producir una partícula mediante experimentos de colisión o en su forma más general, cómo se da la interacción. Para intentar evadir esta gran complicación, se unen las dos representaciones para producir la representación de interacción, la cual no pone la dependencia del tiempo en las funciones de onda ni en los operadores si no que combina las dos dependencias, ahora tanto el operador como la función de onda poseen esa dependencia temporal. La ventaja de esta representación es que determina las soluciones a los problemas usando la solución de campo libre en la representación de Schrodinger y a esta se le suma los términos de interacción desconocidos. Al acoplar las ecuaciones (1) y (2), junto con ciertos cam- bios en la función de onda (que describe el campo producido por la partícula) y en los operadores (que pasan a tener la dependencia en el tiempo al depender del Hamiltoniano de la partícula libre), que son realizados mediante la operación con una función del hamiltoniano de campo libre (aquí no se incluirá un análisis formal de la teoría, para esto se puede ver (Aitchison y Anthony, 2003), (Halzen y Martin, 1984) o (Greiner, Schramm, y Stein, 2002)), se produce la ecuación de Schwinger-Tomonaga: i d dt |Ψ(t)〉I = Ĥ ′ I |Ψ(t)〉I (3) con Ĥ(t)I como el hamiltoniano de interacción y |Ψ(t)〉I como la función de onda de interacción. A pesar de esta simplificación en los operadores y la función de onda, ya que se modificó el hamiltoniano y solo se está interesado en los términos de interacción de éste, aún es complicado resolver, por lo cual se usa la teoría de perturbaciones. Teoría de Perturbaciones. Esta teoría permite resolver ecuaciones de gran complejidad matemática al tomar una serie de funciones aproximadas a la función original, esto es, a partir de un estado conocido del sistema, empezar a tomar funciones aproximadas y alrededor de este, que describan el estado, para así determinar el comportamiento del sistema. En otras palabras, empezar a adicionar términos cercanos a éste para así producir cualquier estado. Una de las herramientas mas usadas es la teoría de las matrices de CROMODINÁMICA CUÁNTICA 7 dispersión o la teoría de la matriz S . Suponga que se tiene un conjunto de partículas el cual en el comienzo de los tiempos no han interactuado de ninguna manera, por lo tanto, estas han de estar en un estado inicial |ψ(−∞)〉I = |i〉. Tiempo después, se producirá la interacción entre estas partículas, y en últimas se separarán y ya no in- teractuarán entre sí. De este modo, tiempo después a la inter- acción, estas van a estar en un estado final |ψ(∞)〉I = | f 〉 que solo difiere del estado inicial por unos cambios en las canti- dades de partículas, los valores de sus números cuánticos y sus cantidades de momento. Estos cambios pueden ser des- critos mediante un elemento matricial S aplicado al estado inicial del sistema | f 〉 = Ŝ |i〉. Así si tomamos la amplitud del estado final se obtiene: 〈 f | f 〉 = 〈 f | Ŝ |i〉 = S f i (4) donde las componentes de Ŝ son las amplitudes de probabi- lidad de encontrar una partícula en el estado final | f 〉, dado que estuvo en un estado inicial |i〉 Para poder determinar los valores de Ŝ se usa la teoría de perturbación, que es el objetivo de usar la representación de interacción ya que se tiene el hamiltoniano de campo libre más los términos de interacción, en otras palabras, más los términos perturbativos al integrar la ecuación (3) obtenién- dose: |Ψ(t)〉I = −i ∫ t −∞ Ĥ′I(t ′) |Ψ(t′)〉I dt ′ (5) donde los limites de integración son tomados desde el inicio de los tiempos donde no se presenta ningún tipo de interac- ción (−∞), hasta el tiempo t donde se da la interacción. Si Ĥ′ ′ I(t ′) es nula, indica que no se presentó ninguna interac- ción entre las partículas a un tiempo t′ por lo cual el estado |Ψ(t)〉(0)I = |i〉. Introduciendo este hecho a la ecuación (5) se obtiene: |Ψ(t)〉1I = |i〉 + ∫ t −∞ (−iĤ′I(t1))dt1 |i〉 (6) donde los súper índices en las funciones de onda de las ecua- ciones (5) y (6) indican las correcciones a orden 0 y a primer orden, además el subíndice 1 en el tiempo indica que la in- teracción a primer orden se dió en un tiempo t1. Introducien- do todas las correcciones, cambiando el hamiltoniano por la densidad hamiltoniana e introduciendo un nuevo operador llamado operador ordenamiento del tiempo T que cumple: T (Ĥ ′ I (x1))(Ĥ ′I(x2)) = Ĥ ′ I (x1)Ĥ ′I(x2) con t1 > t2 Ĥ ′ I (x2)Ĥ ′I(x1) con t2 > t1 (7) donde se cambia la dependencia de tn por xn que representa los posibles estados que tendrán las partículas. Con el fin de hacer la ecuación más simétrica tanto en la posición como en el tiempo, para realizar los cálculos directamente sin preocu- parse por el orden de los términos dentro de la ecuación, se obtiene: Ŝ = ∞∑ n=0 (−i)n n! ∫ · · · ∫ d4x1 · · · d4xn T {Ĥ ′ I (x1)Ĥ ′I(x2) · · · Ĥ ′ I (xn)} (8) Los términos presentes en esta ecuación ahora dependen de la coordenada xn y la densidad hamiltoniana la cual define como se da la interacción. El operador ordenamiento en el tiempo, permite realizar el cálculo sin tener en cuenta en qué momento se da la interacción y al aplicarlo este reorganiza los términos según el orden temporal adecuado. Este proceso se realiza con el fin de mostrar cuál es la relación que hay entre la ecuación de Schwinger-Tomonaga (3) y las amplitudes de Feynman (8). A pesar de ser un proceso engorroso, esta indica como se están dando las interaccionesy al tomar todas las correcciones,muestra todas las interacciones que pueden llegar a darse, las cuales están integradas en unas nuevas herramientas llamadas diagramas de Feynman, que serán mostrados en las secciones próxi- mas, estos diagramas muestran desde una perspectiva gráfica cómo se dan las interacciones y permite evaluar con mayor facilidad cuales son los cálculos matemáticos involucrados en la ecuación. Aplicación a Tres Partículas A, B y C. Para tener una mejor comprensión de cómo se trabaja dentro de esta teoría, se tratará con un sistema ficticio con tres elementos que van a interactuar. Téngase en cuenta tres partículas A, B y C, las cuales producen unos campos descritos por φA, φB y φC con spin 0. A manera de ejemplo sobre el uso de los diagramas de Feynman en conexión con la ecuación (8), se toma el pro- ceso de dispersión A + B → A + B con un tercer elemento interactuante C que tiene lugar en el proceso intermedio. El hamiltoniano en la representación de interacción para esta teoría es de la forma: Ĥ = 1 2 ∑ i=A,B,C ∫ [Π̂2i +(∇φ̂i) 2+miφ̂i]d3x+g ∫ d3φ̂Aφ̂Bφ̂C (9) donde los términos φ̂i hacen referencia a los campos gene- rados por las partículas A, B y C, el término Π̂i corresponde al momento conjugado de la partícula i-ésima y el valor g es el término de acoplamiento de los campos. Aquí, el primer término hace referencia al hamiltoniano de campo libre y el segundo al hamiltoniano de interacción. En la teoría de la matriz Ŝ , se está interesado en determinar la matriz en términos de los hamiltonianos 8 JEICOT DELGADO (densidades hamiltonianas en este caso) de interacción. En el hamiltoniano (9), el segundo término es quien describe la interacción y las distintas formas en que se da esta están descritas en este término además de las otras posibles formas que se pueden dar las interacciones al tomar los diferentes ordenes de corrección en la ecuación (8). Los desarrollos numéricos correspondientes a esta teoría se pueden revisar en ((Aitchison y Anthony, 2003)). Gracias a esto es posible determinar los propagadores, que son elementos matemáticos que permiten poner a evolucionar en el tiempo al sistema y que para este caso, son: 〈0|âA(P′A)â † A(PA)|0〉 〈0|âB(P ′ B)φ̂B(x1)|0〉 × 〈0|φ̂B(x2)â † B(PB))|0〉 〈0|T (φC(x1)φ̂C(x2))|0〉 〈0|T (φ̂A(x1)φ̂A(x2))|0〉 + x1 ↔ x2 (10) Esta ecuación ha de ser integrada para obtener los elemen- tos S f i de la matriz S , que son aquellos que definen la am- plitud para que un sistema pase de un estado inicial |i〉 a un estado final | f 〉. un análisis de esta ecuación nos muestra que: ya que los términos âiâ † i son proporcionales a la delta de di- rac δ3(Pi − P′i) nos dice que la partícula i-ésima no presentó ninguna interacción y siguió su camino, cuando se presen- tan términos de la forma 〈0|âi(P′i)φ̂i(x1)|0〉 implica que se es- ta produciendo una aniquilación de la i-ésima partícula con estado x1, en forma similar los términos 〈0|φ̂i(x2)âi(Pi)†|0〉 simboliza la creación de la i-ésima partícula con estado x2. Por último, los términos de la forma 〈0|T (φi(x1)φ̂i(x2))|0〉 son los términos que dan cuenta de interacciones mediadas por el campo i-ésimo. Adicional a esta existen más ecuaciones que dan cuenta de las posibles interacciones a primera aproxima- ción, algunas de ellas, serán mostradas en el transcurso de este trabajo. Para resolver esta integral (10, se ha de definir los campos en su respectiva expansión de modos de campo para luego aplicar la transformada de Fourier, este proceso es un poco complejo y en la mayoría de los casos se pre- sentan divergencias, el proceso descriptivo para eliminar ta- les divergencias será mencionado en la sección Renormaliza- ción. Sin embargo, Feynman desarrolló un método para resu- mir este tipo de interacciones usando los llamados diagramas de Feynman. Para este caso el diagrama correspondiente es mostrado en el diagrama (11): C A B A B′ A′ (11) donde las partículas representadas por líneas externas son partículas reales, mientras que las partículas representadas por líneas internas son virtuales (se definirá este concepto en la sección Renormalización) y solo establecen una expli- cación esquemática del proceso por el cual se da la interac- ción. Además de los diagramas de Feynman, se establecieron unos elementos llamados reglas de Feynman para establecer la solución de los diagramas directamente, para el caso de la teoría ABC, estas son: I. Agregar (−ig) por cada vértice. II. Por cada línea interna un factor (i/q2i − m 2 i + i�) donde q hace referencia al momento transferido a las partícu- las mediadoras. III. Por cada vértice introducir un factor de la forma (2π4)δ4(p1+p2+...+pn+q1+q2+...+qn) donde el signo de cada momento es determinado por la dirección de cada partícula, si está entrando tendrá signo positivo, caso contrario, será negativo. Este hecho muestra la conservación del momento lineal durante los procesos. Mediante estas reglas es posible calcular con mayor facilidad la amplitud, o la matriz de dispersión Ŝ de los procesos correspondientes al diagrama (12), la segunda regla nos cuenta además un hecho de suprema importancia en la física nuclear y de partículas, existe una condición en estas teorías llamada “mass-shell condition” o condición del cascarón de masa, que se cumple cuando se da q2i = m 2 i , de esta forma se indica si un proceso se da de forma virtual o no; si se cumple la condición, el campo o esa línea interna tenderá a corresponder a un proceso real, pero si esta no se cumple o es “off mass-shell” implica que se presenta un campo virtual. La palabra virtual indica que la partícula no existe, es decir, se presenta algún tipo de interacción por ejemplo, para el diagrama (12) entre A y B, produciéndose una partícula C que no es observada físicamente (no es posible obtener mediciones experimentales directas acerca de su existencia en ese momento), entre mayor tiempo de vida media posea la partícula virtual, tenderá a ser ”real“, por ejemplo, un fotón que es emitido en una supernova no necesariamente es real para el proceso emisión y absorción por el ojo, sin embargo, ya que tuvo un tiempo de vida medio muy grande, su masa tiende a caer en el valor de q2i . Como consecuencia del principio de incertidumbre en términos CROMODINÁMICA CUÁNTICA 9 de la energía y el tiempo 4E4t ≥ ~/2, para el caso de una partícula virtual, esta puede tomar prestada una energía tan grande como se quiera del vacío siempre y cuando la devuelva en el intervalo de tiempo fijado por el principio, ya que su energía puede ser cualquiera, la condición de “off mass-shell” se cumplirá teniendo cualquier masa. B A A′ C B′ (12) Las reglas de Feynman mencionadas anteriormente solo nos hablan de los términos donde se presentan líneas internas y vértices, por ejemplo para diagramas como el diagrama (12), ¿qué sucede entonces para los casos donde existen interacciones entre los campos, es decir, loops como el mostrado en el diagrama (11)?, loops de este tipo muestran la interacción entre A y C de tal forma que altera el momento de las partículas. La modificación en este caso del momento de B podría representar una variación a su vez en la masa, que desembocará en procesos medibles experimentalmente. En este proceso, se tiene un momento fijo entrante que es el momento que poseía la partícula B al inicio, antes de disociarse, que luego se reparte en un momento para A y otro para C, que en últimas se unen para producir de nuevo a la partícula B pero ahora con un momento final o saliente distinto del inicial de tal forma que los momentos de A y C no son totalmente especificados mediante la conservación del momento. Para estos casos se desarrolló una cuarta regla: IV. Por cada cuadri-momento k no fijado por la conserva- ción del momento, tome la integración de:∫ d4k (2π)4 Una integración sobre un cuadri-momento ocurre por cada espira cerrada. Esto fue un gran avance ya que el lograr sintetizar ecuaciones tan extensas que requieren de un cuidado preciso para su evaluación es de suprema importancia para facilitar loscálculos de las amplitudes o matrices de dispersión Ŝ , de las cuales se puede extraer cantidades de vital importancia, como lo son los tiempos de vida medios τ de las partículas reales que, como se indica en su nombre, permite conocer el tiempo de vida2 de un conjunto de partículas de una sola especie, y las secciones transversales σ de los procesos de dispersión que, junto con las secciones transversales diferenciales de dispersión dσ/dΩ, permiten definir, entre otras cosas, la velocidad o energía mínima con la cual ha de incidir una partícula para generar un estado ligado, por ejemplo, generar un estado ligado e− + e+. Esto puede ser obtenido a través de la regla de oro de Fermi, esta es: Tasa de transición o decaimiento = | f (potencial)2i | · (densidad de estados). donde la densidad de estados indica la cantidad de espacios disponibles o de elementos en los cuales las partículas pueden decaer, y el potencial está estrechamente ligado con la amplitud calculada a partir de las reglas de Feynman (Feynman, 1961). Sin embargo, no estuvo exento de críticas como lo mencionó en tono sarcástico Schwinger (David, 2005), “los diagramas eran, como mucho, un asunto de pedagogía, no de física” ya que, pareciese, no aportan nada a la teoría, solo una forma más fácil de ver las ecuaciones de los propagadores, además las divergencias seguían presentándose y por lo tanto no era posible obtener valores medibles para poderlos contrastar con los experimentales y corroborar si la teoría era cierta o falsa. La presentación ante el público científico de los diagramas de Feynman fue realizada en 1948 en Pensilvania, Estados Unidos, durante una reunión entre físicos realizada en el hotel Pocono Manor Inn (David, 2005), aquí, Feynman mostró sus diagramas como una forma de sintetizar aquellos cálculos que eran, en su formalismo, complicados y que se debían tomar con cuidado por su extensión, pero ya que su conferencia fue precedida por una jornada maratónica de la intervención realizada por Schwinger, en aquellos tiempos el niño genio, quien mostraba una forma de eliminar los problemas de divergencia en QED, esta conferencia fue criticada y menos preciada pues ninguno entendía como esos diagramas podrían ayudar a resolver los problemas de la teoría, además que algunos ni siquiera podían plantear los diagramas y mucho menos vincularlos con los cálculos. Sin embargo, Freeman Dyson si tomó con cuidado cada una de las aseveraciones dadas y junto con Feynman y los amigos más cercanos de este, se reunieron para que les explicara con mayor cuidado cómo se realizaban esos diagramas y cómo se eliminaban las divergencias. Tiempo después Dyson asistió a un curso de física teórica en la escuela de verano en la Universidad de Michigan, en el cual se destacaron las conferencias realizadas por Schwinger sobre sus propios métodos de renormalización, de esta forma, Dyson tuvo la oportunidad de compartir 2el tiempo de vida está íntimamente relacionada con la tasa de decaimiento Γ, la cual indica cuanto tarda en decaer o realizarse un proceso. 10 JEICOT DELGADO con Schwinger y así entender de mejor forma su teoría. Gracias a esto, en un artículo escrito a finales de 1948 (antes de que Feynman presentara su teoría en 1949), Dyson mostró la equivalencia matemática que existía entre los métodos de renormalización propuestos por Schwinger y los de Feynman, junto con los propuestos por Tomonaga que también trabajaba en este tema, y como un adicional, mostró que con los diagramas de Feynman se podían ir eliminando aquellas divergencias estableciendo las reglas de Feynman mencionadas anteriormente. En la época de la pos-guerra, Dyson llegó a realizar sus estudios pos-doctorales en el Instituto de estudios Avanzados en Princeton que estaba en proceso de renovación y cuyo director recién posicionado era Oppenheimmer. En la época en la cual llegó a realizar sus estudios, el instituto no había terminado la adecuación de sus instalaciones por lo que Dyson tuvo que realizar sus investigaciones en un salón en el cual se encontraban varios investigadores y todas las mesas eran contiguas generando así una gran comunicación entre todos sus once ocupantes. Tras haber destacado en el instituto, Dyson comenzó a formar a cada uno de sus compañeros en el uso de los diagramas de Feynman, para así proceder en los cálculos perturbativos pertinentes. De este trabajo se destaca el realizado por Robert Karplus y Norman Kroll quienes calcularon la corrección a segundo orden del momento magnético del electrón, es decir, al orden e2 donde se presenta intercambio de un fotón, por lo tanto dos vértices, obteniendo un valor de 1,001147 el cual concordaba de muy buena forma con los resultados experimentales de la época, Además, todos los físicos que finalizaron su pos-doctorado en el Instituto de Estudios Avanzados, pasaron a dictar sus clases en diferentes universidades instruyendo a su vez, a los jóvenes en el uso de los diagramas de Feynman y así gracias al triunfo logrado por Karplus y Kroll y la gran difusión, los diagramas fueron catapultados a ser la herramienta predilecta en los cálculos perturbativos.(Gross, 1999) Renormalización. En cierta medida la QED tiene una gran ventaja que radica en la constante de acoplamiento, e ' 1137 con las dimensiones apropiadas (~ = c = 1, en la teoría ABC corresponde a ig), que al tener un valor tan pequeño, cada vez que se tomen procesos donde se involucren términos con e4, e6, · · · , en donde n es la cantidad de vértices, se va a reducir en gran medida el aporte de estas, al propagador final. En una interacción por ejemplo del tipo (12) solo en la primera corrección se presenta ya un término proporcional a e2. Ahora, si se toma para la siguiente corrección se tendrá uno proporcional a e4, es decir, cada vez será más pequeña la corrección. Debido a que en esta formulación es necesario tomar todos los posibles caminos, se han de tener las contribuciones hasta orden n, sin embargo, al ser una constante tan pequeña, cada vez que se introduce un nuevo orden, los aportes se van a reducir y así una aproximación decente se puede tener hasta segundo orden, es decir, hasta un término proporcional a e2. Corrección de loop. A pesar de que la teoría presenta una buena aproximación, existen laboratorios como el acele- rador de Brookhaven, donde se podían obtener valores expe- rimentales con una mayor precisión (Aitchison y Anthony, 2003), esto obligaba a la teoría a mejorar su precisión, al incrementar los términos de corrección para así poder pro- barla. Con base en lo anterior, y ya que siempre es necesario tomar todos los caminos posibles, al diagrama (12) junto con el diagrama (13): B A A′ B′ C (13) que corresponden a un segundo orden, se han de adicionar diagramas en los cuales se presentan los loops, como se muestra en el diagrama (14), en este se muestran dos par- tículas A y B con momento PA y PB respectivamente que interaccionan y emergen con un momento P′A y P ′ B para A y B, en esta aproximación se produce una partícula media- dora C con momento u = (P′A − PB) 2 = (PA − P′B) 2. Este tipo de diagramas se llaman diagramas de loops debido a la existencia de procesos que se dan virtualmente. C A B C B A B′ A′ x1 x2 x4 x3 (14) Este diagrama ha de ser tenido en cuenta en la suma de los estados posibles que se introducen en la matriz S .En este diagrama se presenta un término de gran importancia correspondiente a la corrección de loop, que es: (−ig)4 ∫ ∫ ∫ ∫ d4x1d4x2d4x3d4x4ei(P ′ A−PB)·x1 ei(P ′ B−PA)·x2 × 〈0|T {φ̂C(x1)φ̂C(x2)}|0〉 〈0|T {φ̂C(x2)φ̂C(x4)}|0〉 × 〈0|T {φ̂A(x3)φ̂A(x4)}|0〉 〈0|T {φ̂B(x3)φ̂B(x4)}|0〉 (15) CROMODINÁMICA CUÁNTICA 11 Este término se presenta cuando existe un loop en el dia- grama y corresponde, por tanto, al diagrama de espira mos- trado en (14). Este posee una solución, tras realizar la ex- pansión de estos en términos de campo y varios cambios de variable adicionales, corresponde a (Aitchison y Anthony, 2003): (−ig)2 ∫ d4k (2π)4 i k2 − m2A + i� i (q − k)2 − m2B +i� ≡ −iΠ[2]C (q 2) (16) Esto permite mostrar la dependencia que tiene el término de loop (16) con respecto al momento k La introducción de la integral nos indica que es necesario realizar una integral sobre todo el espacio de momento, esto se debe a que no existe especificación alguna del momento en las espiras, la mayor información que se puede sacar es que si el cuanto A tiene un momento k, el cuanto B tendría un momento q − k cuya suma sería entonces q. Ese valor del momento, es una variable libre lo que nos indica precisamente lo ya mencionado, una integral sobre todo el espacio de momento. El problema que presenta esta integral es que, por una ins- pección rápida, la integral cuando se acerca al infinito, va a decaer como: ∫ Λ 0 k3 k4 dk (17) que es proporcional a una integral del tipo 1/k para grandes valores de Λ, cuya solución es lnΛ, entonces si se toma un valor Λ → ∞, la integral tenderá a infinito, es decir, se vuelve una integral divergente. Este problema existe en todas las teorías de campos y solo puede ser evitada usando la renormalización. En 1933 Dirac en la búsqueda de unificar la teoría de la relatividad y la mecánica cuántica propuso en el marco de la mecánica cuántica, una partícula con velocidad igual a la velocidad de la luz, pero, debido al principio de incertidumbre, una incertidumbre en su posición, producía una posibilidad de que su velocidad, en algunos casos, pudiese ser mayor a la de la luz lo que violaría uno de los postulados de la relatividad que indica que nada puede viajar más rápido que la velocidad de la luz. Esto fue solucionado estableciendo que, en el momento de medir la velocidad de la partícula, se produjeran partículas en diferentes posiciones (conservando el principio de incertidumbre) e indistinguibles de la partícula original. Estas partículas debían ser generadas con su pareja anti-partícula para que los números cuánticos fuesen conservados produciéndose así un espacio “vacío” densamente poblado por partículas denominadas virtuales. Este hecho es deducido a partir de la ecuación de Dirac la cual en su desarrollo, que será mencionado más adelante, presenta la posibilidad de que existan valores de energía negativas, algo bastante extraño ya que si se presenta estos posibles niveles de energía, una partícula podría estar decayendo y a su vez emitiendo energía constantemente lo que produciría que ningún átomo fuese estable. Para subsanar este problema se introduce un “vacío” densamente poblado de partículas lo que impide que los electrones de- caigan a estados diferentes gracias al principio de Pauli (este indica que los fermiones no pueden estar en el mismo estado. Esto será ahondado en la sección Cromodinámica Cuántica). Ahora, si se toma el caso donde se extrae, por ejemplo, un electrón del vacío, se obtendrá un electrón con energía positiva, pues ya no está en el nivel de energía negativo, pero quedará un “hueco” en el lugar donde este debería estar. Este espacio es asumido como la presencia de un positrón con una energía negativa y con números cuánticos contrarios a los del electrón. La primera medición del positrón fue realizada por Anderson en 1931 al observar rayos cósmicos en una cámara de niebla donde, al introducir un campo magnético, se mostraba a un “electrón” que la atravesaba. Sin embargo se tenían diferentes movimientos, él no sabía si el electrón se movía hacia abajo, ya que algunos se desviaban hacía la izquierda, otros se desviaban a la derecha. Para eliminar este problema introdujo una placa delgada contra la cual colisionaran los electrones y así poder saber su dirección entrante. Sin embargo, las partículas entraban desde una misma dirección pero tenían trayectorias contrarias evento que solo se podía explicar mediante una diferencia de signo en la carga eléctrica (D. Griffiths, 1987). Este es el mecanis- mo mediante el cual se producen de forma espontánea pares de electrones-positrones vituales y puede ser generalizado a cualquier tipo de pares partícula-antipartícula que presenten estos posibles niveles de energía, como por ejemplo, los pares quarks-antiquarks. Este es precisamente el fenómeno que se esta estudiando en la corrección de loop y del que se da cuenta a través del diagrama mostrado en la figura 14 Si se tiene en cuenta que para un momento infinitamente grande, la distancia será infinitamente pequeña, es posible resolver el problema de la divergencia en términos de la teoría de materia condensada. En este campo, el valor de k no se toma hasta infinito ya que su valor, en términos de la distancia, tiene un valor límite que depende del espaciamiento de la red, por lo cual si se toma hasta un valor de Λ, se podría obtener un valor coherente de la integral. El objetivo entonces es fijar una cota para el valor de Λ de forma tal que, a pesar de ser un simple arreglo, se pueden obtener valores coherentes de la teoría. Sin embargo, existe algo realmente curioso en esta corrección, al tener una distancia cercana al valor 0, por ejemplo en una distancia del orden 10−30m, que es donde se presenta la divergencia a infinito de Λ, y aplicarla a procesos de QED es posible 12 JEICOT DELGADO determinar los valores de la corriente j, de la masa m y la constante de estructura α correspondientes, pero, al acercarse más al valor 0, por ejemplo tomar una distancia del orden de 10−40m, se producen valores totalmente diferentes tanto de j, m y α. Sin embargo, en 1949 Hans Bethe y Victor Weisskopf (Feynman, 1985) mostraron que al realizarse los cálculos correspondientes de los observables, se obtienen valores muy similares sin importar cuales valores de j, m y alpha fuesen tomados, en adición, si se tomaban valores más próximos al valor de 0 se logran obtener valores mucho más precisos de los observables. Este hecho presenta la duda de qué sucede más allá de los valores límites de Λ propuestos, algunos dicen que más allá de ese límite existe una nueva física a la espera de ser descubierta (Aitchison y Anthony, 2003). Trabajando con un valor finito de Λ, y evaluando todos los términos de corrección de loops donde, además de introducir el término (16) que corresponde a un solo loop, se introducen los términos similares de 2, 3, 4, · · · , n loops correspondientes a los terminos mostrados en el diagrama (18): A C B A + A C B A C B A + A C B A C B A C B A + · · · (18) de forma tal que al propagador final se le añaden los siguien- tes términos: i q2 − m2C + i q2 − m2C (−iΠ[2]C (q 2)) i q2 − m2C + i q2 − m2C (−iΠ[2]C (q 2)) i q2 − m2C (−iΠ[2]C (q 2)) i q2 − m2C + · · · (19) Esta serie, que tiene la forma de iq2−m2C (1 + r + r2 + · · · ), converge para valores de |r| < 1 a (1 − r)−1, donde el valor r = (Π[2]C ((q 2)) ( 1 q2−m2C ) . Para tener un mejor entendimiento de este resultado, la expresión es: i q2 − m2C (1 − r)−1 = i q2 − m2C 1 1 − ΠC[2](q2)/q2 − m2C = i q2 − m2C − ΠC[2](q 2) (20) Esta ecuación tiene una forma similar a la ecuación mos- trada en la segunda regla de Feynman, que corresponde al término de campo libre o término de línea: i q2 − m2C − i� (21) La integral se anula cuando se cumple la condición “mass- shell” con q2 = m2C . Si se comparan las dos ecuaciones (20) y (21), se observa que la ecuación correspondiente a los loops cumplirá una condición de “mass-shell” modificada, de tal forma que se anula la integral (tomando a ΠC[2](q2) como un valor constante igual δm2C) cuando q0 = (q 2 + m2C + δm 2 C) 1 2 donde q0 y q son las componentes del cuadrimomento q. Lo que implica esta relación, es un cambio en la masa de la partícula que genera el campo solo por la presencia de las espiras. Para tener una mejor comprensión de esto, en la teoría de estado sólido sucede algo similar; en un entorno eléctrico en un metal, se presentan iones por la presencia de un campo externo, esto produce una reducción en la respuesta de los electrones de conducción presentes dentro del entorno, es decir, debido a la presencia de los iones, el campo generado por estos hace que la “facilidad”con la que los electrones de conducción se muevan, se reduzca que, por último, se puede entender como cambios inerciales de estos electrones. Para este caso, el entorno es el vacío y lo que se presenta en este es una disociación de C en pares A y B que luego se recombinan para generar de nuevo a C, este proceso se puede dar tantas veces se quiera (cuantos más procesos de estos se presentan se tendrán mas términos de loops). Estos cambios son los que en conclusión alteran la inercia de C y produce los aparentes cambios de su masa. Al tratar este fenómeno de la forma descrita anteriormente se debe tener en cuenta un hecho relevante; para el caso de los electrones en un material, la masa “libre” (con el electrón fuera del material) y la masa “efectiva” (dentro del material) de estos se puede medir ya que es posible sacar al electrón de su entorno y ahí realizar la respectiva medición, pero para el presente caso, este proceso no es posible realizarlo debido a que no es posible sacar a la partícula C de su entorno, es decir, del vacío, por tanto es necesario cambiar la interpretación de la masa “libre” por la masa “efectiva” debido a la existencia de las interacciones del vacío. Gracias a la condición de “mass-shell” es posible determinar una nueva cantidad llamada masa física de la CROMODINÁMICA CUÁNTICA 13 partícula i-ésima m2f i,i = m 2 i + Πi(q 2) fijada por la condición q2 − m2i − Πi(q 2) = 0. Esta nueva cantidad es posible obtenerla a través del término Πi(q2) y del parámetro m2i que está presente en el lagrangiano, pero determinar este valor no tiene mayor importancia ya que esta cantidad es posible determinarla experimentalmente, pero si en vez de esto se busca determinar el valor de mi, es posible eliminar la dependencia en el lagrangiano de ese parámetro inobservable el cual es de segundo orden ya que el término Π [2] i (q 2) corresponde a segundo orden. El objetivo de este proceso es precisamente el mencionado anteriormente, eliminar la dependencia del lagrangiano de ese parámetro, esto es necesario ya que si permanece esta dependencia, no sería posible solucionar el lagrangiano. Este proceso se da con Π[2]C (q 2) fijo, pero este no necesa- riamente lo es, por lo cual se requiere evaluar este término. Si se expande alrededor del punto de interés que es q2 = m f i,C se obtiene (igualmente, para un desarrollo completo de este proceso se puede revisar (Aitchison y Anthony, 2003)): i (q2 − m2C) [ 1 − dΠ [2] C dq2 q2=m2f i,C ] + O(q2m2f i,C) 2 (22) donde el término O nos dice a qué orden se está tratando. Para este caso es O(g2), es decir, de segundo orden. Este pro- pagador es similar al propagador de campo libre (21), sin embargo, en éste está presente el término extra: 1 − dΠ[2]Cdq2 q2=m2f i,C −1 Que tras una expansión geométrica puede ser expresado como: 1 + dΠ[2]C dq2 q 2=m2f i,C Ahora, mediante la comparación con la teoría de estado sólido se mostró que existen variaciones o alteraciones en el estado de vacío, es decir, el propagador (21) que es la solu- ción al propagador 〈0|T (φ̂C(x1)φ̂C(x2))|0〉 es alterado y ya no representa el estado de vacío, por lo cual es necesario mo- dificar este propagador para así poder aplicarlo al estado de vacío exacto |Ω〉, esto es, 〈Ω|T (φ̂C(x1)φ̂C(x2))|Ω〉. En conclu- sión, ya que en el “vacío”, existen fluctuaciones caracteri- zadas por los términos de espiras descritos por la ecuación (20), el propagador de campo libre ha de ser alterado por un término de renormalización ZC que es: ZC = 1 + dΠ[2]C dq2 q 2=m2f i,C (23) Así, el propagador es: 〈0|T (φ̂C(x1)φ̂C(x2))|0〉 = ∫ d4k (2π)4 e−ik·(x1−x2)· iZck2 − m2f i,C + i� + cont. multipartículas (24) donde se introducen las contribuciones de multipartículas ya que en las fluctuaciones del vacío, se pueden generar partículas que se crean y se destruyen continuamente alterando el momento de las partículas A y B en este caso, además el factor ZC juega sólo el papel de una constante de renormalización que ha de ser introducida en el propagador que a fín de cuentas está modificando el lagrangiano en un factor proporcional a este. Correcciones en el Vértice. Estas correcciones hacen referencia a las posibles alteraciones en el vértice de los dia- gramas de Feynman. Estas alteraciones tienen la forma mos- trada en el diagrama (25). B A A′ B C C A B′ (25) Aquí, la partícula A con momento PA se disocia en una partícula B y C, después B avanza hasta llegar al vértice don- de se disocia en C y A, luego A se recombina con C para pro- ducir a B con momento P′B. Estos procesos presentes en los diagramas son llamadas espiras triangulares y son descritas mediante: −ig i q2 − m2C ( −igG[2](P′A, P ′ B) ) (26) En este caso se realiza un desarrollo muy similar al realizado en el caso de las correcciones de espiras, donde G[2] es el factor que indica que existe un cambio en este caso, para la carga “efectiva”, esto con el fin de, al igual que en caso de las correcciones de espiras, eliminar la dependencia en el lagrangiano de la cantidad inobservable g por una cantidad medible g f i. Este proceso será tratado con mayor detalle en la siguiente sección. En conclusión, los efectos que producen estas correccio- nes son: 14 JEICOT DELGADO I. La condición de “mass-shell” de una partícula es alte- rada y cambia el valor de m2i en el lagrangiano, por el valor de m f i,i definido por la expresión: m2f i,i = m2i + Π(q 2) II. Los elementos matriciales del vacío del campo de una partícula φ̂i han de ser renormalizadas por un factor√ Zi, que para un orden O(g2) y con i = C, es dada por la ecuación (23) III. Los propagadores, ahora poseen contribuciones de es- tados de dos partículas en la teoría ABC, en otras pala- bras, contribuciones de multipartículas. IV. El factor de acoplamiento del lagrangiano de las inter- acciones g se ha de cambiar por g f i Los factores Πi(q2) y Gi(P′A, P ′ B) son llamados factores de autoenergía, el primero es la autoenergía de la partícula i y el segundo es la autoenergía en el vértice. Los diagramas como los mostrados en el diagrama 14 son los que introducen las correcciones en la masa, los correspondientes a 25 son los que producen correcciones en el momento magnético de las partículas y por último, ya que todas estas divergencias siempre cambian la carga de las partículas, los dos tipos de diagramas son los causantes de las correcciones sobre la carga (D. Griffiths, 1987). Cabe recalcar que esto se hace con el objetivo de eliminar la dependencia en el lagrangiano de Λ, mediante la inclusión de parámetros medibles experimentalmente. A esta teoría se le dió el nombre de teoría de perturbación desnuda o en inglés Bare perturbation theory. Reglas de Feynman para QED Hasta este punto se ha visto cómo la teoría de campos junto con la teoría de perturbaciones, permite describir las interacciones entre partículas cuales quiera, el objetivo, ahora es aplicar todos estos resultados a la interacción entre la materia y la luz, mas precisamente entre los electrones y los fotones, los cuales ahora tienen una dependencia adicional con el espín. Ya que esto solo afecta en la forma del campo, no existe mayor complicación al compararla con la teoría ABC, solo hay que tener en cuenta ciertas implicaciones propuestas por la existencia del espín que se ven representadas por la inclusión de las matrices de Dirac γµ. Las reglas correspondientes a QED son: I. Notación, las líneas correspondientes a los electro- nes serán representadas por = u(si)(pi) cuando entre y = û(s j)(p j) cuando salga de un vértice, para el caso de un positrón, su línea será representada por = v̂(si)(pi) cuando entre al vértice y = v(s j)(p j) cuando salga de este. Por último, para el caso del fotón su línea será representada por y descrita por �µi (pi) cuando entra al vértice y = �µ j∗(p j). II. Por cada vértice introducir un factor igeγµ III. por cada línea interna introducir un factor −igµνq2 si está representa un fotón y γ µq+mc q2−m2c2 si representa a un electróno positrón. IV. Por cada vértice incluir, al igual que en la teoría ABC, un factor (2π)4δ4(p1 + · · · + pn + q1 + · · · + qn) corres- pondiente a la conservación del momento y los signos definidos según su dirección con respecto al vértice. V. Por cada cuadri-momento k no fijado por la conserva- ción del momento, tome la integración de:∫ d4k (2π)4 Una integración sobre un cuadri-momento ocurre por cada loop cerrado. Al aplicar estas reglas con respecto a un diagrama de Feynman definido, se obtiene el valor de la amplitud, o la matríz Ŝ , y con esta es posible calcular la magnitud física que se desee, por ejemplo las secciones transversales (relacionadas con la probabilidad de que ocurra alguna in- teracción en particular) o las tasas de decaimiento (permiten definir los tiempos de vida medios de las partículas). Estas reglas son determinadas a partir del uso de la ecuación de Dirac a partir de la cual se determina el lagrangiano. El proceso para esta derivación será mostrado en la sección Invarianza. Renormalización en QED. Mientras que en la teoría ABC solo existía la divergencia en el ultravioleta, es decir, cuando q → 0, en QED se presenta otro tipo de divergencia cuando q → ∞, llamada divergencia en el infrarrojo. Para el caso de la divergencia ultravioleta, los procesos realizados anteriormente muestran que es posible eliminar esta divergencia mediante el uso de la masa y la carga física. Estas magnitudes son aquellas que son medidas bajo la presencia de interacciones del vacío con la partícula y son introducidas junto con el término de renormalización (operación entre la constante de renormalización y estas magnitudes físicas), para modificar el lagrangiano. Estos términos son llamados contra términos, cabe recordar que estos contra términos dan cuenta de las ”auto-energías“ que en el caso de la teoría ABC aparecen por la presencia del término ΠC(q2), el cual corresponde a la auto-energía de la partícula C, de tal forma que ésta, partiendo de un diagrama como el descrito por (13), es modificada al aumentar el CROMODINÁMICA CUÁNTICA 15 orden, presentando los términos de loops dentro que, entre otras cosas, implican procesos de creación y aniquilación de partículas donde se tiene, al inicio de todo el proceso, una partícula C y al final de este, la misma partícula pero con un momento modificado. Otra implicación presente al introducir estos contra términos es la redefinición de nuevos valores de la carga y la masa que, para el caso de la teoría ABC, son descritos por e = Z2Z1 e0Z 1/2 3 . Para el caso de QED, no solo se presentan términos de auto-energía de una sola partícula, por ejemplo para el elec- trón, sino que también se presenta una auto-energía para el fotón, así, se obtienen dos contra términos correspondientes a estas partículas. Adicional a estos dos, se presenta un tér- mino similar a G(P′A, P ′ B) que corresponde a la auto-energía en el vértice, estos contra términos son: i [k/(Z2 − 1) − δm] −i(gµνk2 − kµkν)(Z3 − 1) −ieγµ(Z1 − 1) Donde Z2, Z3 y Z1 representan los factores de renor- malización correspondientes a la inclusión de los contra términos y cada uno da cuenta de una renormalización específica, Z1 es la renormalización en el vértice, Z2 es la renormalización en la intensidad del campo y Z3 es la renormalización correspondiente a la polarización del vacío (Aitchison y Anthony, 2003), estos presentan la igualdad Z2 = Z1 gracias a la identidad Ward (esta identidad esta íntimamente relacionada con la simetría gauge y permite establecer una relación entre los factores de correlación. Aunque no se hablará de esto en el presente trabajo, es posible revisarlo en (Peskin y Schroeder, 1995)). Por último, δm corresponde al cambio en la masa debido al fenómeno de polarización del vacío. La divergencia en el infrarrojo se presenta ya que en el término (21), el cociente se anulará si se tratan con partículas sin masa, es decir, cuando m2C = 0 que es el caso del fotón. Eliminar esta divergencia es un poco más complejo en su formalismo pero, la esencia central es que los términos divergentes se van anulando uno a uno al introducir contra términos tanto de fotones virtuales como de fotones reales de forma similar a la introducción de los términos de masa y carga física en la teoría ABC. La inclusión de estas correcciones y consideraciones im- plican modificaciones en los propagadores como ya se ha mencionado, por lo cual también existirá una modificación a la Ley de Coulomb. Un propagador de la forma −g2s(q 2 + m2u) −1 se puede interpretar, tras realizar la transformada de Fourier respectiva, como el potencial de Yukawa (se discuti- rá sobre este potencial la sección Cromodinámica Cuántica) que tiene la forma: −g2s (4π) e−r/m2ur (27) Si se toma el caso del fotón, donde m2u = 0, se obtendría −g2s/4πr el cual es el mismo potencial de Coulomb (teniendo en cuenta que el valor de �0 = 1). Esto nos da indicios de cómo ha de comportarse el propagador y así, para el caso de QED, el propagador tendrá la forma (tras realizar la expan- sión del denominador al igual que se hizo con la ecuación (20)): (−igµν) q2 ( 1 + Π̄[2]γ (q 2) ) (28) que al considerar el caso estático donde el cuadrimomento q2 = −q · q el potencial tendrá la forma: igµν q + igµν α 15π 1 m2 (29) Tras aplicar la transformada de Fourier se obtiene, para el primer término, el potencial de Coulomb, ya que este tiene la forma de (21) sin la masa, y el segundo término es una función δ. Este segundo término se puede entender como si fuese una perturbación en los átomos, por ejemplo, para un proceso de dispersión. La ecuación (28) tras unos pocos ajustes, muestra una ca- racterística de gran importancia: e2(q2) = e2 ( 1 + Π̄[2]γ (q 2) ) (30) donde se transformó el factor gµν que esta relacionado con la carga eléctrica. Debido a que el factor Π̄[2]γ (q2) depende de q, la carga eléctrica dependerá ahora de esta. También es posible hacer el siguiente cambio α = e2/4π se obtiene: α(q2) = α ( 1 + Π̄[2]γ (q 2) ) (31) Al introducir el factor Π̄[2]γ (q2) trás su integración se ob- tiene: α(Q2) = α 1 − α/3πln(Q2/Am2) (32) con A = e5/3. Esta ecuación muestra las variaciones de la constante de acoplamiento al variar la energía o transferencia de momento y, ya que depende de Π̄[2]γ (q2), depende implicitamente de la constante de renormalización Z3 la cual esta asociada a las fluctuaciones del vacío. Podemos entender de mejor manera estos efectos a partir de los dieléctricos. Aquí, cuando se introduce una carga +q y otra −q de prueba, las moléculas del material dieléctrico se alinearán con las líneas del campo producido entre estas dos cargas, este efecto hace que se genere un momento 16 JEICOT DELGADO dipolar inducido en las moléculas, produciendo, a su vez, un campo eléctrico, todo ese proceso, en últimas, hace que se disminuya el campo eléctrico entre las cargas de prueba por un factor (1 + χ)−1 = �0/� donde χ es la permeabilidad del material, �0 es la permitividad en el vacío y � es la permitividad del material. Este efecto hace que la carga efectiva dependa de la permitividad del material que, a su vez, varia con la distancia de separación entre las cargas. En síntesis, la carga ya no es la inicial si no tendrá un decremento en su magnitud y pasará a ser una carga efectiva. En el caso de QED, se presenta una polarización del vacío, ver Figura 8, esto es, una alineación de los pares de partículas con respecto al campo producido por una carga de prueba presente en éste. Hay que tener en cuenta que estos pares de partículas son introducidas gracias a que se puede tomar prestada una cantidad de energía ∆E del vacío para producirlas, siempre y cuando la devuelva dentro de un intervalo de tiempo ∆t ' ~/mc2 dado por el principio de incertidumbre, así los pares podrán, en este transcurso de tiempo, recorrer una distancia c∆t ' ~/mc2. Ya que este proceso se puede producir en múltiples ocasiones se generará, al rededor de la carga de prueba, una nube de pares de partículas que realizarán elmismo efecto de reducción en la carga explicado anteriormente con los dieléctricos. Entonces, cuando se desee medir la carga de la partícula de prueba, entre más se aleje de esta, menor va a ser su carga medible, y por el contrario, cuando más se acerque a esta, mayor va a ser la carga medida, de esta forma la carga de prueba que se suponía era desnuda, pasa a ser la carga efectiva, este efecto es llamado apantallamiento. Este fenómeno será ahondado con mayor claridad en la sección Problemas de la teoría de campos. Un hecho importante sobre esto es que todas las contribuciones pueden ser sumadas explícitamente, es decir, cada uno de los efectos producidos por cada uno de los pares pueden ser calculados independientemente y luego ser sumados. Figura 8. En esta imagen se muestra una representación gráfica e la polarización del vacío. Ya que el vacío esta densamente poblado, cuando se presenta una carga en este medio, estos son alineados de tal forma que disminuyen la magnitud de la carga. Por último, las teorías pueden ser clasificadas según su renormalización, teorías como la teoría ABC son super- renormalizables, esto indica que tienden a tener mayor facilidad para realizar su renormalización ya que las divergencias no son tantas; ahora, teorías como la QED son teorías renormalizables, que implica la existencia de mas términos divergentes por lo cual se han de introducir nuevos contra términos asociados a nuevas magnitudes físicas (con magnitud física se hace referencia a cantidades reinterpretadas según se presente el apantallamiento o proceso similar, que a fin de cuentas, son las magnitudes medibles experimentalmente) como por ejemplo las can- tidades g f i y m f i,i, y por último, están las teorías que no pueden ser renormalizadas, como es el caso de la teoría de la gravedad. Para explicar esto, se ha de tener en cuenta que el proceso de renormalización consiste en introducir un contra término por cada divergencia que exista, estos contra términos se van presentando si existen dentro del lagrangiano como era el caso de g y mi desnudas, entonces, por cada divergencia, es necesario obtener una magnitud física, pero no existe la suficiente cantidad de magnitudes dentro del lagrangiano para sopesar las divergencias presentes en estas teorías, así que es necesario introducir una nueva magnitud física para obtener un nuevo contra término que sopese la divergencia. Sin embargo, al aumentar el orden se presenta una nueva divergencia por lo cual, de nuevo se necesitaría otra magnitud física, y si se sigue aumentando el orden se seguirán presentando una a una, nuevas divergencias por lo cual se necesitarían infinitas magnitudes físicas. Por estos motivos, estas teorías no son renormalizables. Existe un modo fácil de saber si una teoría es renorma- lizable o no, y es determinado mediante la dimensión de la constante de acoplamiento. Para el caso de la teoría ABC la constante de acoplamiento g tiene dimensiones de M1, es de- cir, dimensiones de masa con exponente positivo, y la teoría es super renormalizable. En el caso de QED la constante de acoplamiento e es adimensional, por lo cual es una teoría renormalizable y por último, la teoría de la gravedad no es renormalizable ya que la constante de acoplamiento G tie- ne dimensiones de M−2, es decir, dimensiones de masa con exponente negativo. En lo que concierne a este trabajo, no se trataran con teorías no renormalizables. Cabe mencionar que todas las teorías gauge o de campo son teorías renorma- lizables, un ejemplo de éstas es la cromodinámica cuántica (D. Griffiths, 1987). Cromodinámica Cuántica A comienzos del siglo XX se buscaba entender cual era la estructura interna del átomo, con este objetivo en mente, empezaron a surgir teorías que intentaban dar explicación a esto donde, en una primera aproximación, Thomson CROMODINÁMICA CUÁNTICA 17 planteó su modelo atómico el cual consistía en elementos cargados negativamente puestos en un mar o espacio de carga positiva, similar a un pastel de pasas donde la carga positiva es la corteza de este y la carga negativa son sus pasas. Este modelo tuvo una gran acogida ya que explicaba sin problemas la existencia del átomo. Sin embargo, Geiger y Marsden en 1909 realizaron un experimento de colisión de partículas α contra una placa delgada de oro del orden de 10−5cm, propuesto por Rutherford, donde los resultados indicaban la dispersión de algunas partículas a ángulos iguales o por encima de 90◦. Estos resultados eran sorprendentes ya que como dijo Rutherford ”pareciese como si un cascarón sólido rebotara tras chocar con una hoja de papel“(Aitchison y Anthony, 2003). Para entender de mejor manera este resultado, tengase en cuenta que el número de partículas dispersadas debía decaer exponencialmente a medida que aumenta el ángulo de dispersión según el modelo atómico de J.J. Thomson, cualquier desviación con respecto a este decaimiento mostrará entonces señales de dispersiones fuertes. Geiger y Marsden encontraron que 1 en 20000 partículas α eran dispersadas a ángulos mayores o iguales a 90◦, para el modelo de Thomson, la dispersión a grandes ángulos no era que no se pudiese presentar, pero este evento sucedería en 1 de cada 103500 partículas α (Eisberg y Resnick, 1985). Esto evidenciaba que existía un error en el modelo de Thomson, ya no tenemos una distribución de carga homogénea distribuida por todo el átomo, si no que esa carga ha de estar concentrada en algún punto específico llamado átomo. Rutherford fue mas allá de esta explicación cualitativa, y demostró que la distribución angular para un átomo con estas características tenía la forma de sen−4φ/2, que luego fue confirmado en un artículo escrito por Geiger y marsden en 1913, donde mostraba que esta forma característica se presentaba para placas de oro y de plata. La Figura (9) muestra la cantidad de centelleos o partículas detectadas versus el ángulo de dispersión con respecto al centro de masa del sistema. Esto fue una prueba directa de la existencia de un núcleo dentro del átomo y debido a las diferencias en las dispersiones para partículas cargadas eléctricamente se mostró que este núcleo estaba cargado positivamente. Figura 9. en esta gráfica se muestra la cantidad de centelleos por cada ángulo dispersado. Si no existiese el núcleo, la distribución decaería linealmente. (Aitchison y Anthony, 2004) Tras obtener este gran logro, la investigación continuaba y tras comparar la diferencia entre las masas de los diferentes átomos de los elementos con respecto al átomo de hidrógeno, se evidenció una diferencia en las masas de las partículas que no podía ser explicado si el núcleo solo consistía de protones (D. Griffiths, 1987). Estos análisis mostraron la existencia de constituyentes del núcleo de dos tipos, uno cargado positiva- mente (protones) y un segundo descubierto por Chadwick en 1932 con carga neutra (neutrones) (Wilczek, s.f.). La carga eléctrica permite al átomo existir en un estado base ligado, es decir, un estado de menor energía donde el núcleo esta- ba ligado con los electrones (carga negativa) y permitían la existencia del átomo, Sin embargo, no era posible explicar la ligadura que existía en el núcleo pues este, al poseer 2 entes uno con carga positiva y otra neutra, no podían estar li- gados mediante una interacción electromagnética proponién- dose así la existencia de una nueva fuerza o interacción. Esta nueva interacción debía: I. Tener un rango muy corto de alrededor de 2 Fermi (1 Fermi o fentómetro es una unidad de longitud y es equivalente a 1 × 10−15m) pues no existía evidencia de esta fuera de los nucleones (protones y neutrones), cuyo diámetro es de 2.5 Fermi. II. Ser independiente de la carga. Esto es explicado ya que los niveles de energía de los estados base y excitados de distintos átomos, como ejemplo el Litio y Berilio con Z=3 y Z=4 respectivamente, con cantidad de pro- tones menor en el Litio, eran muy similares y si el po- 18 JEICOT DELGADO tencial dependía de la carga deberían ser muy distintos. Estos niveles
Compartir