Logo Studenta

Patricio Diaz - Antimateria

¡Este material tiene más páginas!

Vista previa del material en texto

La Antimateria 
 
Resumen 
En este ensayo se exponen, desde un punto de vista conceptual, el origen y el desarrollo de la 
teoría de la antimateria. Para entender el origen, se revisan las ideas fundamentales de la 
mecánica clásica y su interpretación semántica; luego las ideas de la mecánica cuántica, las de la 
mecánica cuántica relativista, y las de la teoría de la antimateria. Finalmente, se explica la forma en 
que fue detectada la antimateria. 
Introducción 
Para el hombre de la calle la idea de antimateria es esotérica, enigmática, posiblemente oscura e 
incomprensible. Forma parte de su cultura, cultura mal formada o desinformada; cultura al fin. La 
palabra es parte de su vocabulario, pero no de su comprensión. Esta y otras ideas de la ciencia 
moderna han sido implantadas en el léxico del lego por las historias de ciencia ficción, las series de 
televisión, y ocasionalmente por la prensa y la radio; de manera muy aislada por los hacedores y 
practicadores de la ciencia. Tal es la cultura de los medios de comunicación masiva. Son muy 
pocos los que tienen una idea fiel de lo que antimateria significa. Son muy pocos también los que 
poseen alguna noción, aunque sea muy vaga, de las teorías que la sustentan y que le dieron 
origen, a pesar de que estas ultimas forman parte de la cultura universal de nuestro tiempo. En 
nuestra época, todo ser humano, en principio, debería tener alguna noción de las grandes ideas de 
su tiempo, ya pretérito, ya actual; todo ser humano que se ostente de ser un ser de su tiempo y de 
su cultura. Por lo anterior: 
Esta es la historia, esbozada tan solo, de una de las grandes ideas de nuestro tiempo, implantada 
ya en la cultura universal y llamada a formar una pieza integral del pensamiento humano universal. 
Va emparejada a otras ideas igualmente geniales y trascendentales del siglo XX, como son la 
mecánica cuántica y la teoría especial de la relatividad. Esta es la historia de la antimateria. 
En las próximas páginas delinearemos las ideas primeras sobre el mundo; las teorías de la 
naturaleza que dieron origen a la idea de antimateria y sobre las que descansa, su origen, las 
incertidumbres y errores de los autores que le dieron paternalidad, su consolidación al tenerse la 
confirmación experimental, sus consecuencias, y su estado actual; también esbozaremos la forma 
en que ha afectado para siempre nuestra concepción del mundo. 
 
1. La mecánica clásica 
Por mecánica clásica entendemos la gran síntesis sobre la concepción del mundo hecha por los 
científicos del siglo XVII. Figuran algunos estudiosos del movimiento de los cuerpos celestes -
Brahe, Kepler, Galileo, etc. - y del movimiento de los cuerpos terrestres -Galileo, Newton, y otros-; 
por supuesto sin que una lista excluya a la otra. Es una gran síntesis porque resume en 3 axiomas, 
y unas cuantas definiciones todo el conocimiento sobre la mecánica -esto es, movimiento- de los 
cuerpos y sintetiza éste; es decir, descubre que las explicaciones del movimiento de los cuerpos 
terrestres y de los cuerpos celestes están englobadas por los mismos principios. La naturaleza -
supuesta ya divina o terrestre no cuenta, las leyes son las mismas. La mecánica clásica fue la 
primera teoría de tipo axiomático sobre el mundo; axiomático en el sentido de la geometría 
euclideana clásica; es decir todas la verdades se deducen de unos pocos principios o axiomas -
también llamados autoverdades- y unas cuantas definiciones. 
Los axiomas son conocidos por todas las personas con educación media superior. Estos son: 
I Todo cuerpo en estado de reposo o de movimiento continuará así hasta que una fuerza exterior 
modifique este estado de reposo o de movimiento. 
II Las fuerzas aplicadas sobre determinado cuerpo son proporcionales a las aceleraciones 
obtenidas del cuerpo. 
III A toda acción que se ejerce sobre un cuerpo, corresponde una reacción, de la misma intensidad 
y de sentido contrario. 
 
Dentro de las definiciones están: estado de reposo, estado de movimiento, fuerza, aceleración, 
acción, masa, tiempo, velocidad, materia, y muchas otras. Vale la pena hablar un poco sobre estas 
últimas, ya que conforman el conocimiento junto con los axiomas que tenemos del movimiento de 
los cuerpos del mundo exterior. Aunque es pertinente una aclaración; una persona que sabe, o que 
decimos que sabe, mecánica clásica, no solamente conoce los axiomas y las definiciones -aparato 
conceptual- sino que además maneja con soltura el aparato matemático involucrado ecuaciones 
diferenciales- y sabe como aplicarlo a situaciones físicas. 
En la mecánica clásica, muchas de la definiciones son limitadas, ambiguas y no libres de 
dificultades. Sin embargo, en el ámbito para el que fueron pensadas, estas funcionan bien. Veamos 
algunos ejemplos concretos. Newton propuso que el tiempo es absoluto, fluye ajeno a todo influjo 
externo y es universal; es decir, no depende del estado de movimiento del observador. 
Éstas son llanamente suposiciones sobre la naturaleza del parámetro que llamamos tiempo. Es lo 
que observamos, o lo que nos dicta la experiencia más inmediata. Nada contradice estas o nos 
hace pensar que son erróneas; tal es nuestro acondicionamiento. Veremos más tarde que 
indagaciones mas profundas sobre estos hechos llevaron a la formulación de la teoría especial de 
la relatividad. Aunque parece ser que Newton estaba consciente de estas dificultades, no tuvo otra 
alternativa. Ahora tomemos la idea de reposo. 
Esta es ambigua pues depende del observador. Solamente existe un sistema de coordenadas 
inercial donde un determinado cuerpo esta en reposo; visto desde cualquier otro esta en 
movimiento. ¡Un cuerpo que esta en reposo y a la vez se mueve! No hay paradoja, todo depende 
del estado del sistema desde donde se este observando. Otro ejemplo: por definición, masa es la 
cantidad de materia que contiene un cuerpo. A su vez, clásicamente, materia es todo aquello que 
compone a los cuerpos. Esta es una idea intuitiva, fabricada para describir objetos macroscópicos, 
esto es, objetos de la vida diaria, y con los cuales tenemos experiencias directas. No hay ninguna 
garantía de que sea válida cuando la extrapolemos a regiones -microcuerpos- donde no tengamos 
experiencias diarias. Decimos, los objetos están hechos de materia. 
Sí, pero qué es la materia. La definición es recursiva; materia es todo aquello que compone a los 
cuerpos. Nada mas absurdo que esto, porque la lógica se ha perdido. Para que no suceda tal cosa 
hay que cortar en algún punto, y tomar como evidente -es decir, sin demostración- alguna 
proposición. La mecánica clásica toma como evidente la idea de materia, en el sentido de que es 
todo lo que constituye a los cuerpos. No se define más. 
Porque no se puede, además no se necesita más. Luego veremos que podemos calar más hondo 
cuando tengamos experiencias con cuerpos microscópicos y además enfoquemos las cosas desde 
una perspectiva diferente. Un ejemplo más: 
Energía es otro paradigma de concepto clásico, su definición dice que es la propiedad que poseen 
todos los cuerpos para realizar un trabajo; trabajo es la energía almacenada o gastada por un 
cuerpo, o en un cuerpo. No comentamos mas sobre este concepto. 
Al margen de la teoría clásica, al menos en principio, quedan discusiones como, que es el vacío, 
cual es el propósito de la mecánica clásica, y otras cuestiones; más cerca estas de los objetivos de 
la filosofía que de la mecánica clásica. 
Si bien la física clásica, es decir, la mecánica clásica, no esta dispensada de problemas de 
consistencia, nadie puede negar u omitir los grandes logros aquilatados. Con toda justicia podemos 
decir que es una teoría autoconsistente, es una teoría de las llamadas cerradas. Las 
inconsistencias surgen cuando forzamos las autoevidencias supuestas para que se revelen en 
evidencias. ¡Esto es equivalente a pretender construir el conocimiento de la nada! Pretensión 
completamente absurda. Tenemos que suponer algo, para empezar. Como unaprimera 
aproximación en la descripción del mundo externo, la mecánica clásica es válida. En realidad 
ninguna teoría axiomática esta libre de estos problemas. La misma geometría de Euclides los tiene; 
empero estos no le restan ningún mérito, excepto el de ser una teoría absoluta. 
Basten, para ejemplificar, recordar las interminables discusiones sobre la autoevidencia de sus 
postulados. Discusiones que llevaron a la formulación de otras geometrías igualmente verdaderas y 
autoconsistentes conocidas como geometrías no-euclideanas, y posteriormente a todo un 
programa para la construcción de todo tipo de geometría posible. 
Las discusiones sobre la autoevidencia de los postulados y de las definiciones de la mecánica 
clásica, junto con la abrumadora evidencia experimental no explicada por los primeros, 
desembocaron en nuevas mecánicas. 
Pero antes de pasar a revisar esas nuevas mecánicas, echemos un vistazo a los principios que aun 
estas preservan. En la mecánica clásica se supone, por principio, la conservación de la cantidad de 
movimiento -ya sea lineal, ya sea angular-; también la conservación de la masa; y la conservación 
de la energía, cualquier tipo de energía. Dentro de la interpretación semántica de la mecánica 
clásica están como principios: 
i) La objetividad. Esto es, la postulación de un mundo externo al observador y que es factible de ser 
descrito por leyes naturales independientes de toda intervención de la voluntad del hombre. 
ii) La localidad. Esto es, todo fenómeno natural es de tipo local; quiere decir que los resultados de 
un experimento en la luna, por ejemplo, o en el laboratorio vecino no afectan los resultados de otro 
en la tierra o en otro laboratorio. 
iii) La causalidad. Esto es, a todo fenómeno antecede una causa o razón. 
iv) El determinismo. Esto es, la suposición de que podemos predecir el futuro, si conocemos con 
todo detalle las condiciones iniciales y las leyes que rigen el comportamiento de los cuerpos 
involucrados. En mecánica clásica, en principio, podemos hacerlo; conocemos las leyes que rigen y 
podemos conocer las condiciones iniciales con toda la precisión que querramos; no existen 
limitaciones a la precisión, por principio. La teoría clásica no presupone una incertidumbre inherente 
al proceso de medición. Si bien existen las incertidumbres en los procesos de medición, las 
presupone tan pequeñas como se deseen, sin que por ello nuestras mediciones queden afectadas. 
Dicho de otra manera, los efectos del observador sobre el fenómeno son tan péquenos que no le 
alteran en su naturaleza, y se pueden reducir tanto como se quiera. No existen incertidumbres en el 
proceso de medición, y las obtenidas están dadas por las limitaciones experimentales. 
v) Completez. Esto es, a cada elemento de la realidad física le corresponde un elemento de la 
teoría; si en una teoría esto se cumple, decimos que la teoría es completa. Tomemos como 
ejemplo la electrodinámica clásica. En el mundo externo existe una propiedad de la materia -puede 
ser observada- la electrodinámica se refiere a esta como "carga eléctrica". De esta forma a un 
elemento de la realidad física, se le asocia un elemento o concepto de la teoría. La teoría clásica 
sobre el mundo externo es objetiva, es local, es causal, es determinista, y es completa. 
Los principios antes numerados no son recuperados por la mecánica cuántica. como veremos más 
adelante. 
 
 
 
2. La mecánica cuántica 
La teoría cuántica fue introducida por M. Planck en un comunicado a la Sociedad Alemana de 
Ciencias Físicas en 1900. Su hipótesis fundamental fue la discretización o cuantización de la 
radiación electromagnética cuando es absorbida por las paredes del cuerpo negro, i.e., las paredes 
solo admiten-hipotetizó- unidades cuantizadas de energía. Por cuerpo negro se entiende cualquier 
cuerpo capaz de absorber y radiar energía al mismo ritmo. Una pared metálica pintada de negro es 
una buena aproximación. Una constante, ahora conocida como constante de Planck, caracteriza 
esta absorción. Planck no discretizó la radiación electromagnética cuando se propaga, sólo cuando 
es absorbida o intercambiada por o con las paredes del cuerpo negro. Con ésta hipótesis describió 
y reprodujo las curvas del espectro de radiación del cuerpo negro. La hipótesis de Planck fue una 
hipótesis muy afortunada que le tomo 4 años en formular. Aunque al principio no fue del todo claro 
su significado, otros físicos usaron la misma hipótesis para describir fenómenos aparentemente no 
conectados con el fenómeno de radiación del cuerpo negro. El efecto fotoeléctrico, por A. Einstein -
trabajo que le valió el premio Nóbel-. Explicación de los espectros de radiación electromagnética del 
átomo de hidrógeno por N. Bohr -trabajo por el cual se le concedió el premio Nóbel-; y otros 
muchos que cimentaron la teoría de los cuantos y acunaron la universalidad de la constante de 
Planck. 
Niels Bohr, autor de la primera teoría atómica, contribuyó sustancialmente a la creación de la 
mecánica del cuanto. Su teoría explicaba muy bien los espectros de radiación emitida por el átomo 
de hidrógeno. Tales espectros eran conocidos muy bien mucho antes de haber nacido la teoría del 
cuanto. Sin embargo, aunque la teoría funcionaba muy bien en átomos hidrogenoides -es decir, de 
un solo electrón-, fracasaba dramáticamente en átomos de más de un electrón. La teoría no 
contemplaba, por ejemplo, como tomar en cuenta la interacción entre dos electrones. Debido a 
estas y otras dificultades que la teoría presentaba, era necesario un formalismo para describir la 
mecánica del cuanto. Las ideas filosóficas de A. Einstein y N. Bohr contribuyeron decididamente a 
su formulación. 
Albert Einstein consideraba que toda teoría física debería basar sus conceptos en variables de tipo 
observable, es decir, que todo concepto físico tuviera su contraparte experimental. Consideraba 
que este era un requisito que toda teoría física debería cumplir. Estos requisitos los cumple la teoría 
de la relatividad -como veremos en la próxima sección-. Empero no los cumple la teoría atómica de 
Bohr. La teoría atómica de Bohr hablaba -bueno, habla porque todavía se enseña en las escuelas 
de física como un preámbulo para la mecánica cuántica- de órbitas atómicas, periodos atómicos, 
etc., ninguno de estos conceptos tiene su contraparte experimental. En la mecánica clásica existen 
las contrapartes experimentales a los conceptos antes señalados, luego es lícito hablar de ellos. 
Pero en la física del microcosmos no, por lo tanto algo estaba completamente equivocado en la 
teoría de Bohr. Fue W. Heisenberg, quien al aplicar el criterio de Einstein para las teorías físicas, 
pudo dar con el formalismo para la creación de la mecánica del cuanto. El observable fundamental 
resulto ser el concepto de estado cuántico. En los espectros atómicos no se observan períodos y 
órbitas atómicas, solo estados cuánticos atómicos. -El formalismo de Heisenberg consistió en decir 
como calcular amplitudes de probabilidad de que un sistema pase de un estado a otro-. El estado 
inicial y el estado final en una transición atómica radiactiva. Fueron estos los observables de la 
mecánica cuántica de Heisenberg. 
Se cuenta -por el propio Heinserberg- que cuando Einstein le preguntó cómo había creado la 
mecánica del cuanto, esto es, cómo se le había ocurrido la formulación, le dijo que simplemente 
había usado su requisito de observables para toda teoría física; a lo que Einstein contestó que ya 
había cambiado de opinión. 
Siguiendo con nuestra historia. Cuando Heisenberg desarrolló el álgebra pertinente se topó con un 
álgebra no conmutativa. Permítaseme explicar esto. 
En otras palabras, significa que el producto de a por b no es igual al producto de b por a. El 
resultado anterior preocupó enormemente al autor de la teoría, quien al principio consideró que algo 
andaba completamente incorrecto. Sin embargo poco después se comprendió que tal producto es 
posible; los matemáticos yalo manejaban con anterioridad y llamaban a los elementos de esta 
álgebra matrices, y por supuesto conocían sus propiedades de no conmutación multiplicativa. 
Expliquemos un poco más. Nos han enseñado que 4 x 5 es igual a 5 x 4, de aquello no hay duda. 
Decimos que el producto es conmutativo porque el producto final es igual en ambos casos. En 
general las operaciones a las que estamos acostumbrados en la vida diaria son conmutativas; la 
multiplicación, la suma, etc., lo son; empero podemos definir una serie de operaciones que no lo 
son, de tal suerte que al ejecutar una y después la otra el resultado es dramáticamente diferente de 
si primero aplicamos la segunda y enseguida la primera. concretemos nuestra ejemplificación: sea 
A, la operación de disparar una pistola; y sea B, la operación de llevar la pistola a la sien. El proceso 
y el producto BA son: disparar la pistola y en seguida llevar la pistola a la sien; el resultado es el 
pedazo de plomo en el aire. El proceso y el resultado de AB son: llevarse la pistola a la sien y en 
seguida disparar, el resultado es el pedazo de plomo incrustado en el cráneo; el resultado es 
drásticamente diferente al anterior. El primer resultado es inofensivo, y el segundo resultado es 
mortal. Claramente, pues, AB no es igual a BA. Luego las operaciones A y B no son conmutativas. 
A la mecánica de Heisenberg se le conoció con el nombre de la mecánica matricial. Otros 
desarrollos paralelos fueron dados por Schrödinger enteramente independientes de Heisenberg. 
Schrödinger planteó una ecuación de onda que describe como varía en el espacio y como 
evoluciona en el tiempo la función de onda que describe un estado físico -observable físico-. Esta 
es una ecuación diferencial de segundo orden en el espacio y de primer orden en el tiempo. Este 
tipo de ecuaciones eran muy conocidas en mecánica clásica. La versión de Schrödinger es análoga 
a la versión -en el sentido de la formulación en términos de ecuaciones diferenciales- a la 
formulación de la mecánica clásica. El propio Schrödinger demostró que el formalismo de 
Heisenberg y el de él de la mecánica cuántica son equivalentes. 
El formalismo de Schrödinger acarreó otro problema; que al principio no resultó fácil resolver, ya 
que significaba la función de onda. Diferentes escuelas le dieron distintas interpretaciones. Ésta fue 
una situación sin precedente en la historia de la física. Generalmente en mecánica clásica las 
ecuaciones eran obtenidas cuando ya se tenia una interpretación para ellas. 
Las ecuaciones describían situaciones físicas con las que ya se tenían experiencias directas. Luego 
su interpretación se seguía naturalmente. Pero esta situación no se da cuando se estudian 
sistemas microscópicos, donde no tenemos una experiencia directa. La interpretación de la función 
de onda de la ecuación de Schrödinger tomo varios años. Ésta función depende de la posición y de 
los momentos -tomados como operadores- y del tiempo. Si la función es propiamente normalizada, 
es decir, si existe una constante multiplicativa de tal manera que su módulo al cuadrado sea la 
unidad cuando se integra sobre todo el espacio considerado, entonces el módulo al cuadrado de la 
función de onda puede ser interpretado como la densidad de probabilidad de encontrar la partícula 
en determinada reunión del espacio a determinado tiempo. 
Tenemos ahora un formalismo para decir cual es la probabilidad de encontrar una partícula en 
cierta región del espacio a determinado tiempo. Con esto hemos perdido el determinismo de la 
mecánica clásica. Ya no se puede decir que la partícula esta en determinado lugar del espacio. 
Podemos decir tan sólo, la probabilidad de tenerla en algún lugar del espacio. Se dice que Einstein 
exclamó: "Dios no juega a los dados". La interpretación estadística le resultaba inadmisible; por 
consiguiente dedicó mucho tiempo y esfuerzos a encontrar una interpretación determinista a la 
función de onda. El abandono del determinismo clásico le molestaba enormemente. Nunca aceptó 
la interpretación probabilística de la mecánica cuántica. Niels Bohr replicaría: "no le corresponde a 
los físicos decirle a Dios como debe jugar". Bohr estaba satisfecho con la interpretación de la 
mecánica cuántica. Estos dos personajes nunca se pusieron de acuerdo. Los debates y encuentros 
amistosos entre estos dos científicos duraron hasta la muerte de A. Einstein en 1954. N. Bohr murió 
después, en 1962. Lo mas que pudo hacer Einstein fue mostrar que la mecánica cuántica no es 
completa, no sigue el principio de completez, aunque es lógicamente consistente. Para 
hacerlo,Einstein definió la realidad física: en base a su definición mostró que había elementos de la 
realidad física que no estaban contemplados por la mecánica cuántica; luego se seguía la 
incompletez de la mecánica cuántica. 
Bohr aceptó la consistencia de la demostración pero objeto la definición de realidad física. Con ello 
el debate continuo. Era el año de 1935; diecinueve años mas tarde el debate continuaba. Aún, hoy 
en día algunos físicos no la aceptan. Sin embargo es la interpretación aceptada por la mayoría de 
los físicos. 
Aunque a regañadientes los físicos aceptaron la potencia de la nueva mecánica del cuanto. Otros 
se dieron cuenta casi inmediatamente de la utilidad de la nueva mecánica. Paul A. M. Dirac fue uno 
de ellos. La potencia de la nueva mecánica surgió aun más, cuando se escribió en la formulación 
canónica, es decir, en una forma donde aparecen las coordenadas espaciales y las variables 
conjugadas -momentos-; formulándola así, la nueva mecánica adquiere una forma análoga a la 
mecánica clásica. Las diferencias están dadas por la propiedad de no conmutación de las variables 
conjugadas posición y momento. Y esta formulación admite una generalización a todo tipo de 
variables conjugadas que no son del tipo de momento y posición. 
Verbigracia, las variables conjugadas pueden ser del tipo de los operadores de permutación; 
pueden ser los operadores que representan las rotaciones de un cuerpo en un espacio 
tridimensional; pueden ser operadores de creación y destrucción de partículas; pueden ser 
operadores de emisión y absorción de partículas; o de manera muy general podemos decir que 
pueden ser los elementos de un grupo cualquiera. 
La generalización puede ir mas lejos, al escoger apropiadamente las variables conjugadas para 
representar el espacio físico; y escribir ecuaciones análogas a la ecuación de Heisenberg en este 
espacio, sin que se requiera una analogía clásica, y aun poder interpretar la función de onda al 
cuadrado como una densidad de probabilidad. 
A pesar de todos los logros sorprendentes de la formulación de la mecánica cuántica, subsistía una 
dificultad; como hacerla compatible con la teoría especial de la relatividad. En la próxima sección 
revisaremos brevemente las hipótesis y consecuencias de la relatividad especial; luego veremos 
como se resolvió el problema de hacer compatible la mecánica cuántica y la teoría especial de la 
relatividad. 
 
3. La relatividad especial 
La teoría especial de la relatividad fue introducida por Albert Einstein en 1905. Once años más 
tarde introdujo la teoría general de la relatividad donde compaginó la teoría especial de la 
relatividad y la teoría de la gravitación. Como en partículas submicroscópicas las interacciones 
gravitacionales son pequeñas -al menos ese es el sentimiento generalizado, no se toman en cuenta 
cuando se formula la teoría de partículas elementales; esto quiere decir que la teoría general de la 
relatividad no se toma en cuenta, solamente se hace uso de la teoría especial de la relatividad dado 
que intervienen altas velocidades. 
La teoría especial de la relatividad surgió casi como una consecuencia natural después de 
examinar algunas inconsistencias de la electrodinámica de los cuerpos en movimiento. La teoría de 
Maxwell -conocida como electrodinámica clásica- requería, según versión del propio Maxwell, la 
existencia de un marco de referenciade propiedades mecánicas extrañas y contradictorias, donde 
la velocidad de las ondas electromagnéticas fuera c y solamente c (la velocidad de la luz en el 
vacío). No se concebía, según la visión mecánica del universo, la propagación de una onda sin 
requerir de un medio que la condujera. (El sonido requiere de un medio material para propagarse). 
Por ello se invento el éter (el medio ficticio que desempeñaba el papel del medio donde la luz se 
propaga). Este medio debería tener propiedades extrañas. El experimento de Michelson & Morley 
desmintió la existencia de un marco de referencia como el del éter. Dejando por sentado que la 
velocidad de la luz es independiente de la velocidad de la fuente. 
Algo incomprensible según la mecánica clásica; donde la velocidad de la fuente mas la velocidad 
de la perturbación sería la nueva velocidad de la perturbación, si se le observara desde otro marco 
de referencia. Para la luz esta ley de adición no parecía funcionar, y no funciona. Basándose en las 
consideraciones anteriores, Einstein postuló que la velocidad límite máxima para los objetos 
materiales es la velocidad de la luz en el vacío. Y además, ésta es una constante independiente del 
marco de referencia desde el cual se mide. Con estos dos postulados transformó la mecánica de 
Newton en mecánica válida para objetos a bajas velocidades comparadas con la velocidad de la 
luz- en una nueva mecánica -mecánica relativista- válida para objetos que se mueven a cualquier 
velocidad menor que la velocidad de la luz en el vacío, por supuesto. La mecánica relativista 
contiene en el límite a bajas velocidades la mecánica de Newton. En la mecánica relativista las 
coordenadas espaciales quedan en la misma categoría que la coordenada temporal y viceversa. 
Las coordenadas espaciales se funden con la coordenada temporal en una formulación 
tetradimensional de la mecánica. Diciéndolo de otra manera, podemos agregar que la mecánica 
relativista puede ser formulada exigiendo que la coordenada temporal sea simétrica con las 
coordenadas espaciales, excepto por algunos cambios de signo que ocurren en las ecuaciones. 
La teoría especial de la relatividad tuvo sus predicciones espectaculares corroboradas, al 
comprobarse la dilatación temporal y la contracción de la longitud. 
Según la teoría especial de la relatividad, la energía de una partícula es la suma de su energía en 
reposo -la energía que le corresponde en virtud de su masa- y la energía cinética -energía que le 
corresponde en virtud de su movimiento-. Para una partícula en reposo, la energía se escribe como 
el producto de su masa por el cuadrado de la velocidad de la luz. Otra predicción de la teoría 
especial de la relatividad. La conversión de materia en energía, desprendida de la formulación 
anterior, en una pila atómica o en una desintegración radiactiva cualquiera -reacciones donde se 
consume masa. 
Esta predicción fue espectacularmente confirmada. Con ello cambió la política mundial y la forma 
de hacer la guerra. Nació la bomba atómica en 1945. Las estrategias de los gobiernos cambiaron 
para siempre, el mundo no volvió a ser el mismo. 
 
4. La mecánica cuántica relativista 
La mecánica cuántica de Heisenberg o la de Schrödinger es una mecánica no relativista. Es válida 
para sistemas de partículas a bajas velocidades. Para hacer válida la mecánica cuántica a altas 
velocidades es necesario hacerla consistente con la teoría especial de la relatividad. Se ha indicado 
anteriormente que la teoría especial de la relatividad puede ser formulada haciendo que la 
coordenada temporal sea simétrica con respecto a las coordenadas espaciales. Esta es la idea que 
vamos a aplicar para hacer consistente la mecánica cuántica con la teoría especial de la relatividad. 
La ecuación de Schrödinger es una ecuación asimétrica en sus coordenadas espaciales y 
temporales. En ella aparecen los operadores temporales a la primera potencia, y los operadores 
espaciales a la segunda potencia. Podemos hacer esta ecuación consistente con la teoría especial 
de la relatividad exigiendo que los operadores, tanto espaciales como temporales, sean del mismo 
orden; ya sea de segundo orden o de primer orden. 
Veamos que ocurre cuando pedimos que ambos operadores sean de segundo orden. 
Para hacerlo simplemente se usa la expresión para la energía relativista al cuadrado y el operador 
temporal al cuadrado. Con ello los operadores espaciales y temporales quedan ambos al cuadrado 
y a la vez simétricos. Esta ecuación fue adivinada primeramente por L. de Broglie, y es conocida 
como la ecuación de Broglie. Fue adivinada porque no se dedujo, simplemente se planteó. 
La ecuación de Broglie puede ser modificada para incluir la influencia de un campo 
electromagnético externo. La ecuación resultante es una ecuación algo complicada. Y además 
satisface los requerimientos de la teoría especial de la relatividad, y es como la ecuación de 
Schrödinger. Esta ecuación es conocida como la ecuación de Klein & Gordon. Se dice que fue en 
realidad descubierta por Schrödinger, pero el nunca la publicó debido a que no da el espectro 
correcto del átomo de hidrógeno; Schrödinger siempre estuvo insatisfecho con esto. Muchos físicos 
estaban satisfechos con la ecuación de Klein & Gordon a pesar de las serias dificultades que esta 
presenta. Aunado a lo anterior, la densidad de probabilidad dada por la ecuación de Klein & Gordon 
no está bien definida; esta no viene dada por el cuadrado de una amplitud, sino que puede tomar 
valores positivos y negativos; lo cual la hace inadmisible. Los físicos interpretaban esta expresión, 
que puede tomar valores negativos y positivos, como una densidad de carga. Todos los físicos 
estaban contentos con usar la ecuación de Klein & Gordon y su interpretación. Todos, excepto 
Dirac. A Dirac le disgustaba que la teoría de Klein & Gordon violara algunas de las características 
que hacían a la teoría de Schrödinger elegante y general; como la teoría de transformaciones. 
Quebrantaba la teoría de transformaciones porque no había forma posible de trasformar la función 
de onda para ser referida a otras variables distintas a las de posición, como se puede hacer en la 
teoría de Schrödinger. Dirac cuenta que en aquella época los físicos parecían contentos con la 
ecuación de Klein & Gordon a pesar de todas las dificultades que presentaba. Dirac se planteó el 
problema de encontrar una ecuación de onda consistente con la teoría especial de la relatividad y 
que preservara las características de la teoría de transformaciones. Dirac encontró que la otra 
alternativa que mencionamos era la solución correcta. Es decir, exigir que todos los operadores que 
aparecen en la ecuación sean de primer orden y no de segundo orden como en la ecuación de 
Klein & Gordon. La ecuación que resulta se conoce como ecuación de Dirac. La nueva ecuación 
cumple con los requerimientos de la simetría impuesta por la teoría especial de la relatividad y con 
los requerimientos fundamentales de la mecánica cuántica. 
La ecuación de Dirac resultó útil para describir una partícula de espín un medio del cuanto y con 
momento magnético. Estos resultados no estaban contemplados originalmente por Dirac. 
Los físicos a menudo resuelven una dificultad y les aparecen otras. La ecuación de Dirac resolvió 
las dificultades que planteaba la ecuación de Klein & Gordon pero otra se hizo evidente. La función 
de onda de la ecuación de Dirac presentaba 4 componentes, en vez de una como la ecuación de 
Schrödinger; una función de dos componentes era perfectamente aceptable y comprensible, cada 
una de las componentes se refería a un estado posible del espín del electrón, pero cuatro 
componentes exigía ir al límite de la imaginación de los físicos. Al principio no fue entendido el 
significado de la función de onda con cuatro componentes. Sin embargo, Dirac logro darle un 
interpretación satisfactoria. Las primeras dos se referían a los dos posibles estados del electrón con 
energía positiva, ylas otras dos a los mismos estados posibles pero con energía negativa. Los 
estados de energía negativa se antojaban inadmisibles. Por primera vez los físicos se preocuparon 
por entender el significado de estados físicos con energía negativa. Por supuesto, esta no era la 
primera vez que los físicos se topaban con el problema de la energía negativa; en la teoría especial 
de la relatividad aparecen cuando escribimos la energía como la raíz cuadrada de la suma de el 
producto del momento por la velocidad de la luz al cuadrado y el producto de la masa por la 
velocidad de la luz al cuadrado al cuadrado. 
En la teoría cuántica aparecen estados de energía negativa porque usamos la expresión descrita 
anteriormente para escribir la energía. Aparecen en la teoría de Klein & Gordon y en la teoría de 
Dirac. En la teoría de la relatividad no nos preocuparon mucho los estados con energía negativa; 
tales estados no se observan. Si una partícula posee energía positiva permanecerá ahí sin 
oportunidad de pasar a estados con energía negativa, al menos si nos restringimos a la visión 
clásica. Los niveles de energía para una partícula, según la teoría de la relatividad, consiste de 
todos los estados desde la energía que le corresponde a su masa en reposo hasta el infinito; y 
además de todos los estados desde la energía que le corresponde a menos su masa es reposo 
hasta el menos infinito. Según la visión clásica, si una partícula tiene energía positiva no puede 
transitar a estados de energía negativa y viceversa. Sin embargo esta situación no se tiene en 
mecánica cuántica, donde es posible brincar desde estados de energía positiva a estados de 
energía negativa sin pasar por los estados intermedios. Si empezamos con una partícula en los 
estados con energía positiva, esta puede pasar a los estados con energía negativa. Luego el 
problema de los estados de energía negativa fue el problema más grave de la teoría de Dirac. La 
solución de este problema condujo al concepto de antimateria. 
Un electrón en un campo electromagnético exterior puede tener transiciones desde los estados de 
energía positiva a los estados de energía negativa, inducidas por el campo electromagnético 
exterior. El mismo Schrödinger sugirió algunas posibles soluciones, al problema de los estados de 
energía negativa, ninguna de ellas funcionó satisfactoriamente; y como no podían deshacerse de 
los estados de energía negativa, lo mas natural fue encontrarles una interpretación. Por supuesto 
no se permiten físicamente; los estados con energía negativa no se observan en el laboratorio. 
La interpretación puede ser realizada usando el principio de Pauli. Éste sugirió que la propiedades 
de la tabla periódica podían ser explicadas satisfactoriamente si se consideraba que un estado 
cuántico solo puede ser ocupado por un electrón. Un estado cuántico se refiere al estado de 
movimiento y de espín, en conjunto, del electrón. Este enunciado es conocido por el nombre de 
principio de exclusión de Pauli. Este describe una de las propiedades del electrón. Dos de ellos no 
pueden estar en un mismo estado cuántico. 
Usando este principio podemos imaginar que todos los estados posibles de energía negativa, en 
nuestro mundo tal y como lo conocemos, están llenos con un electrón en cada uno de ellos. Con 
esto estamos requiriendo una densidad infinita de electrones porque los estados se prolongan 
hasta menos infinito. Imaginamos esta situación como un mar de electrones, infinito y sin fondo. 
Debemos suponer también que los electrones de este mar infinito no contribuyen al campo 
electromagnético. Debemos suponer además que en el vacío todos los estados de energía positiva 
están desocupados y todos los estados de energía negativa están completamente ocupados. Con 
ello podemos suponer que las desviaciones de esta distribución son las que contribuyen al campo 
electromagnético. Con la imagen de un mar infinito de electrones llenando todos los posibles 
estados de energía negativa, los posibles saltos desde los estados de energía positiva hacia 
estados de energía negativa por los electrones quedan prohibidos, por el principio de Pauli. 
 
5. La teoría de hoyos 
Existe la posibilidad de que un electrón salte a estados de energía negativa, y la situación se da 
cuando existe un hoyo en el mar de electrones con energía negativa; es decir, si hay un estado 
vacante en el mar que puede ser ocupado por un electrón. Cuando el electrón baja al estado de 
energía negativa, ambos, el electrón y el hoyo desaparecen, y la energía aparece en otra forma; 
esta se observa como dos veces la energía del electrón original. 
La energía que se observa puede ser en forma de fotones. Los hoyos aparecen en la distribución 
de energías negativas del electrón, y se revelan como nuevos entes en la teoría. Debemos tener 
una interpretación para estos. 
De acuerdo con la teoría de Dirac, la transición de los electrones desde estados con energía 
positiva a estados con energía negativa es insoslayable. 
Entonces lo más razonable es buscarles una interpretación física a esas transiciones. Dirac planteó 
la siguiente hipótesis: la imagen de vacío es ya no de una región donde no existe nada, sino de una 
región donde todos los estados con energía negativa están completamente llenos. Para Dirac la 
imagen de vacío más razonable es aquella región del espacio que esta en su estado más bajo de 
energía posible. Mientras mas se agreguen electrones al estado de energía negativa mas baja 
será su energía. El estado mas bajo se logrará cuando todos los estados estén ocupados. Esta es 
la imagen de vacío planteada por Dirac. 
Un hoyo en ese mar de energía negativa aparece como una partícula; una partícula con energía 
positiva, ya que para hacer desaparecer el hoyo debemos agregar energía negativa. Podemos ir un 
poco mas lejos y preguntarnos como se va a mover el hoyo bajo la influencia de un campo 
electromagnético externo. Las ecuaciones de movimiento para una partícula cargada en un campo 
electromagnético y en estados de energía positiva se aplicarían para una partícula en estados de 
energía negativa. No existe algún argumento para no aplicar estas ecuaciones, en principio 
podemos usarlas. Existirá diferencia en su trayectoria, y nada más. 
La diferencia esta en que la segunda se movería como lo haría la primera en el caso de tener la 
carga eléctrica opuesta. Entonces los hoyos en un campo electromagnético externo se moverían 
exactamente como electrones con carga eléctrica positiva. Un hoyo en los estados de energía 
negativa se mueve como si tuviera una carga eléctrica positiva; de aquí que su movimiento 
corresponde al de una partícula en estado de energía positiva y carga positiva. Resta investigar su 
masa. La teoría es completamente simétrica, por lo tanto lo más natural es suponer que la masa de 
un hoyo sea idéntica a la masa de un electrón. Sin embargo Dirac dudo de esta situación porque en 
aquella época la única partícula cargada positivamente conocida era el protón. Parece que estaba 
enterado de la enorme diferencia de masas entre el protón y el electrón, y de la simetría entre los 
estados de energía positiva y los estados de energía negativa que el mismo estaba proponiendo; 
aun así apoyo la idea corriente de que la materia en su totalidad debía ser explicada tomando en 
cuenta únicamente, como entes cargados, a los electrones y a los protones. Era común pensar que 
sólo se requerían dos partículas, una cargada positivamente y otra cargada negativamente -el 
protón y el electrón en orden respectivo-. No se requería mas, según sentimiento generalizado de la 
época. Pero la naturaleza es mas rica que la imaginación, a veces. La opinión imperante era que no 
se requerían nuevas partículas para explicar la materia del mundo observable. Lo cual es cierto; 
pero también era cierto que estaban mirando cosas que no son usuales o corrientes en este 
mundo. Por ello Dirac, penso que el hoyo seria el protón. 
Dirac cedió a la corriente de opinión imperantey publicó su artículo sobre la teoría de hoyos con el 
nombre de la teoría de los electrones y protones. Rápidamente encontró oposición a su 
interpretación; principalmente de parte de los físico matemáticos; H. Weyl, físico matemático de la 
Universidad de Göttingen, por ejemplo. Weyl estableció categóricamente que la teoría demandaba 
que la masa del hoyo debería corresponder a la masa del electrón. 
Y por lo tanto el hoyo sería algo no usual y desconocido hasta entonces por los físicos. Sin saberlo 
siquiera sus autores, la antimateria había nacido. 
Y a Dirac se le iba de las manos un premio Nóbel. 
 
6. Detección de la antimateria 
Años después de la publicación del artículo de Dirac, se anunció que una partícula con la masa del 
electrón y carga positiva había sido descubierta. Al parecer fue Blacket el descubridor de esta 
partícula -se lo contó a Dirac-, sin embargo no publicó nada porque sería que las evidencias que 
tenía no eran suficientes, y mientras se hacía de mas evidencias otros físicos publicaron resultados 
conclusivos. Anderson fue quien publicó estos resultados definitivos sobre la existencia de 
antielectrones. En la época se examinaban trazas de partículas cargadas, moviéndose en un 
campo magnético, dejadas en cámaras de Wilson. Partículas cargadas con un signo se mueven en 
cierta dirección, las cargadas con el signo opuesto se mueven en dirección opuesta. Empero, si uno 
observa una trayectoria curvada en una dirección, no sabe uno si interpretarla como la trayectoria 
de una partícula cargada con un determinado signo moviéndose en una dirección, o bien como la 
trayectoria de una partícula cargada con el signo opuesto moviéndose en la dirección inversa. En 
las fotografías tomadas con cámaras de Wilson, los físicos notaban frecuentemente que algunas 
trayectorias podían interpretarse como electrones saliendo de una fuente -fuente radiactiva- 
mientras que otras podían ser interpretadas como electrones moviéndose hacia la fuente o 
entrando a la fuente. Situación por demás singular. Como esto ocurría con mucha frecuencia para 
ser casualidad, los físicos se dieron a la tarea de investigar el fenómeno. Para determinar la 
naturaleza de la partícula bastaba con investigar la naturaleza de su carga, o bien la dirección hacia 
la cual se estaba moviendo. Anderson interpuso una placa de plomo en las trayectorias de las 
partículas, con el fin de pararlas; observo a ambos lados de la placa de plomo. Como la partícula es 
frenada, en el lado que lleve menor velocidad su trayectoria será mas curvada que en el lado donde 
lleve más velocidad. Como las partículas no pueden obtener energía de la placa de plomo, solo 
perderla, entonces la partícula venía de la región de donde la curvatura es mayor hacia la región en 
donde su curvatura es menor -es mas lenta-. Con este método la dirección de la trayectoria se 
determinó. Todas las trayectorias resultaban de partículas que provenían de la fuente; ninguna 
partícula entraba. Las trayectorias de partículas que parecían entrar a la fuente correspondieron a 
partículas que salían pero con carga opuesta a la carga del electrón. Electrones positivos o 
positrones. Por este descubrimiento a C.D. Anderson se le otorgó el Premio Nóbel en 1936. 
Desde el descubrimiento de Anderson, los positrones se han observado innumerables veces. Los 
positrones son la antimateria de los electrones. Hoy en día ya son partículas fácilmente manejables, 
y se presentan a diario en el seno de los aceleradores de partículas en varias partes del mundo. 
Los argumentos anteriores llevaron a descubrir los positrones, esto es, los antielectrones. Resta 
responder una pregunta. Y concierne a la existencia de las antipartículas en general. ¿Existe la 
antipartícula para cualquier partícula que exista o se pueda crear? La respuesta es afirmativa. 
Primero; para toda partícula que siga la estadística que sigue el electrón, es decir la estadística que 
siguen las partículas de espín un medio, los argumentos delineados anteriormente conducen a la 
predicción de la existencia de su correspondiente antipartícula. Por ejemplo para el protón, existe el 
antiprotón; para el neutrón, existe el antineutrón, etc. Aunque en estos dos últimos casos las 
situaciones son un poco mas complicadas que en el caso de los electrones, porque si bien siguen 
una ecuación de onda parecida a la ecuación de onda de los electrones, para el caso de los 
protones la ecuación de onda es un poco mas complicada. Las complicaciones se derivan de la 
intervención de otras fuerzas además de las electromagnéticas. Podemos seguir visualizando las 
antipartículas de estas partículas como estados no ocupados en los estados de energía negativa 
asociados a las partículas. Estos, como en el caso de los electrones, aparecerán como partículas 
diferentes; con la misma masa y con la carga opuesta. 
Con la imagen anterior abrimos la posibilidad de crear pares de partículas y antipartículas; basta 
con perturbar el vacío apropiadamente para obtener un par de partícula antipartícula. El proceso de 
crear un par partícula-antipartícula lo podemos ver como sigue: si ya creamos un par, lo que ha 
ocurrido es que hemos sacado una partícula de los estados de energía negativa hacia un estado 
observable, como lo es el estado de energía positiva; el hueco en los estados de energía negativa 
lo observamos como la antipartícula de la partícula que hemos sacado, y se ve como una vacante 
en los estados de energía negativa, i.e., energía positiva. Decimos que hemos creado un par. Por 
supuesto el proceso inverso también es posible; un par partícula antipartícula puede ser destruido, 
sus cenizas estarán compuestas de fotones. 
La energía que se requiere para crear un par es dos veces la energía de la partícula en reposo. 
Para el caso del electrón positrón es alrededor de un millón de electrón voltios, es decir, un millón 
de veces la energía cinética que adquiere un electrón cuando cae a través de la diferencia de 
potencial de un volt. La energía que se requiere para crear un par de protón antiprotón es cerca de 
4,000 veces mayor. Estas energías son fácilmente alcanzables por la tecnología moderna; esto 
quiere decir que pares de protones antiprotones, de neutrones-antineutrones, y de electrones-
antielectrones son fácilmente creados en los laboratorios de altas energías en el mundo. 
Antimateria en general puede ser creada; antideuterios, antihelios, etc., han sido producidos en los 
laboratorios, antiátomos livianos también. Las partículas que no satisfacen el principio de Pauli 
también tienen sus antipartículas, aunque no siguen la estadística de las partículas que cumplen 
con el principio de Pauli. Las primeras, aquellas que no siguen el principio de Pauli, son llamadas 
bosones, y las que lo cumplen son fermiones. Para los bosones, algunas partículas son sus 
mismas antipartículas; como es el caso del portador de la interacción electromagnética, el fotón. 
Para algunos bosones cargados sus antipartículas son las partículas con el signo opuesto de la 
carga eléctrica. Por supuesto para los bosones ya no tenemos la imagen de un vacío con los 
estados de energía negativa llenos completamente, y la teoría se hace mas complicada. 
Las ideas de Dirac, sobre la antimateria, son solo cualitativas. Ideas alternas han sido desarrolladas 
por Stückelberg, Feynman y otros. La idea que se explota es: los positrones, en general toda la 
antimateria, pueden ser considerados como electrones, materia en general, con el tiempo real 
invertido o corriendo hacia el pasado. Es decir la antimateria seria la materia ordinaria pero 
corriendo hacia atrás en el tiempo. 
Con el desarrollo de la teoría de la antimateria la idea de partícula elemental se hizo más vaga. La 
idea de partícula elemental, como aquella que es el bloque fundamental desde el cual se 
construyen las demás no tiene sentido; porque en el proceso de división de la materia nuevas 
partículas pueden ser creadas a partir de la energía de las partículasque se están dividiendo, y no 
significa que estaban dentro de las partículas que se disociaron. 
Por esta razón no podemos describir de una manera simple los últimos constituyentes de la 
materia. Los físicos ahora batallan con un gran número de partículas, todas ellas parecen 
igualmente fundamentales; lo que hacen en este tiempo es estudiar las transformaciones de estas 
en otras. Pero ya no las piensan como fundamentales. 
La antimateria ahora es un hecho, aunque tecnológicamente su uso y manejo es limitado. Empero 
existen aceleradores de partículas que en una dirección circula materia, digamos electrones -
también los hay en donde circulan protones-, y en la dirección opuesta antimateria, los 
antielectrones o antiprotones en su caso. Cuando estos dos pedazos de materia antimateria se 
encuentran se aniquilan uno al otro y surgen fotones u otras partículas. Lo mismo ocurriría con un 
bloque de materia y otro bloque de antimateria que se juntasen. La materia y la antimateria, juntas, 
seria la forma de explosivo mas poderoso que jamás se haya inventado. Tan sólo nos limita su uso 
la tecnología para poder guardar un pedazo de antimateria sin que interacciones con la materia 
ordinaria. 
El rastro electromagnético que deja la antimateria es igual al rastro que deja la materia. Estudiando 
solamente sus espectros electromagnéticos no podríamos decir cual es materia y cual es 
antimateria, hasta hacerlos que se junten; si explotan, es antimateria, si no lo hacen es materia. 
Esto da pie a la especulación de la existencia de estrellas y galaxias formadas de antimateria. 
Incluso la especulación sobre la existencia de universos formados enteramente de antimateria. No 
lo sabremos nunca, a no ser que se descubra un método para distinguir la materia de la antimateria 
sin necesidad de ponerlas en contacto. 
Por último, nuestro universo esta formado básicamente de materia, esta asimetría es un misterio. 
En un misterio desde el punto de vista de la teoría de antimateria que hemos explicado. Tal teoría 
sabemos que funciona; sin embargo nada asegura que sea completa. Siguiendo con su lógica: 
,Donde quedo la antimateria que debería estar en nuestro mundo? La antimateria solo la 
conocemos por las trazas que deja en una cámara u otro medio para detectarse. Esta se crea en 
los laboratorios, en las estrellas, en las desintegraciones nucleares, pero es una ínfima cantidad 
comparada con la cantidad de materia que observamos. Y su vida es efímera. ,Por que nuestro 
universo esta formado por una sola clase de materia a la que llamamos simplemente materia? 
Quizá estemos lejos de descubrir este enigmático misterio. Porque es mucho lo que ignoramos 
sobre nuestro universo. Los científicos, en particular los físicos, se entregan a estas hermosas 
investigaciones . 
 
Lecturas recomendadas 
Feynman, R.P. (1994). Six Easy Pieces. Addison-Wesley. 
Félix, J.(1992). Distinguibilidad de los neutrinos. Avance y Perspectiva,11: 211. 
Selleri, F. (1986). El debate de la teoría cuántica. Madrid: Alianza 
Teller, E.(1991). Conversations on the Dark Secrets of Physics. Plenum. 
 
 
Autor: 
Julián Félix Valdez 
 Instituto de Física, Universidad de Guanajuato 
Apartado Postal E-143 
C. P. 37150 León, Gto., México 
 
 
*********************************** 
La Antimateria: 
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de 
antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se 
empezaron a conocer los estudios del físico británico Paul Dirac. 
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una 
época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se 
teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se 
profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de 
lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol 
intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la 
mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los 
electrones. Se dice que fue una de las épocas más exotérica de la física, en la cual hubo 
ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como 
fue el caso del físico austríaco Erwin Schroedinger cuando apeló a la historia de los gatitos para 
exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más 
pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente 
aceptado por las personas. 
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto 
cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, 
que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que 
fueran "electrones antimateria", a los que se les llamó positrones y que debían tener la misma masa 
del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía. 
Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el 
año 1933. 
El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de 
California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de 
un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas para dar otro salto y este vino en 
1955, cuando un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen 
Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis 
lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la 
partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro 
equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el 
primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las 
tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada. 
Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas 
más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico León 
Lederma, los soviéticos lograron detectar la primera partícula compleja de antimateria, el 
antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se 
detectó el antihelio. 
Con la inauguración, en 1978, de las instalaciones europeas del Centro de Investigación de 
Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear 
antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que 
comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era 
enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar 
antiátomos faltaba un ingrediente que permitiera la combinación de antipartículas para poder 
producirlo, lo que precisamente faltaba era una fórmula para conseguirlo. 
La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y 
sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o 
igualar su velocidad para unirlas, interrogante que fue respondida, en parte, por los trabajos del 
profesor de física de la Universidad de Stanford Stan Brodsky y por el ingeniero físico chileno Iván 
Schmidt. 
En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales 
sugerían la fórmula de un método para producir antiátomos, o sea, como poder unir antielectrones y 
antiprotones. Pero también se requería capacidad de experimentación. A ellos llegó CharlesMunger, quién formó su propio equipo en Chicago para realizar los experimentos. Pero las 
publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del 
CERN donde se formó un equipo multinacional encabezado por Walter Oelert con el objetivo de 
experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una competencia 
científico-mundial para alcanzar este logro. 
El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un 
proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas 
fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede 
mencionar como átomos de antihidrógeno. 
El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en hacer 
chocar un haz de antiprotones con un gas y, en cuyo proceso, se producirían pares de electrón-
positrón; luego, de esos positrones, una pequeña fracción viajaría casi a la misma velocidad de los 
antiprotones, lo que implicaría que los positrones sean capturados por un antiprotón, lo que haría 
que ambas antipartículas se combinaran para formar un antiátomo. 
Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y 
positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales 
pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente 
neutros, el campo magnético del acelerador no los desvía y continúan una trayectoria recta que los 
lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa 
su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan. 
Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno como 
elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo. 
Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador 
LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina 
nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de 
electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que 
empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno. 
Como estos antiátomos son neutros, el campo magnético del acelerador no los desvía y 
continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio. 
Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose 
ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata 
lo que ocurrió. 
Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer 
como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria 
explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados 
por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de 
EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable 
por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo 
que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el 
antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con 
átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una 
explosión de rayos gamma. 
En el proceso se detectaron once choques contra la barrera, de éstos, nueve son 
considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los 
otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de 
encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en 
sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de 
todas las partículas que se generan en el proceso. 
Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva, 
pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en 
línea recta. 
El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el 
anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado 
experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas 
comitentes. 
El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una 
variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La 
producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades 
de la antimateria y la posibilidad única de comprobar principios físicos fundamentales. 
En la cosmología podemos prever que a futuro se podrán contar con tecnologías que 
permitan investigar con más y mejor precisión la estructura del universo y, por ende, las 
características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha 
desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de 
antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está 
diseñado para detectar antimateria atómica (hasta ahora solamente se han observado 
antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean 
intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de 
estrellas que han explosionado en nuestra galaxia, pero la detección de las más energéticas se ha 
conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta. 
En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de 
detección de antimateria atómica espacial. 
Pero no sólo para el campo de la investigación en física la producción de antimateria tiene 
ribetes de excepción, si no que también en otros campos de la ciencia podría tener aplicaciones 
inmensas como el aerospacial, o como ya se ha demostrado en la medicina, etc.... Podemos soñar 
con energía ilimitada y barata; motores para naves interestelares que podrían desarrollar 
velocidades a más de un tercio la de la luz; mayor intensidad en la exploración del espacio y, por 
supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura ciencia ficción. 
Al momento de escribirse estas líneas, solamente se han desarrollado en laboratorio 
diecinueve antiátomos de hidrógeno y el equipo de norteamericanos encabezados por Charles 
Munger proyecta a futuro, lograr unos cien. Lo anterior, no significa que se podrá contar en el corto 
plazo con reactores de materia-antimateria, o que pronto se podrán unir antiátomos para crear 
antimoléculas y, luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos 
que para poder contar con un supercombustible de antimateria para viajes espaciales, hay todavía 
que pasar una multiplicidad de obstáculos. El primero es encontrar un método para crear 
antiátomos en reposo, en vez de alta velocidades, para que no desaparezcan al chocar con la 
materia. Luego, habría que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero 
por ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es mejor adherirse a 
la idea de que nunca se puedan concretar. Se escogió hacer un antiátomo de hidrógeno porque 
este es el más simple de todos. Pero para producir moléculas de antiátomos, sería necesario crear 
antiátomos más complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la práctica 
es casi invisualizable. 
 
 Antimateria Particulada Cósmica 
Detectarantimateria generada en el cosmos no es una cosa fácil. Hasta ahora, solamente 
se ha podido observar una nube de positrones que fue detectada cerca de un torrente de rayos 
gamma, ubicado en las cercanías del centro de la Vía Láctea, y que estaba siendo monitoreado por 
el espectrómetro OSSE. Tanto de la nube de positrones como de los rayos gamma no se conocen 
las fuentes de origen, se presume que deberían encontrarse en algún lugar aledaño entorno al 
centro de la galaxia. 
 
Nube de Antimateria Particulada Cósmica 
Para detectar y estudiar las emisiones de rayos gamma en la Vía Láctea la NASA, el 5 de 
abril del año 1991, colocó en el espacio el satélite científico Compton Gamma-Ray Observatory 
(CGRO) con cuatro instrumentos orientados a localizar los rayos y a estudiar sus espectro 
electromagnético dentro de una banda de rangos de energía que va desde los 30_[KeV]a los 
30_[GeV]. En el proceso de localización de rayos gamma, el OGCR ha logrado elaborar varios 
mapas de ubicaciones que han permitido en ellos distinguir los rayos que se genera entorno a las 
explosiones de estrellas masivas jóvenes a lo largo del plano de la galaxia cerca del centro de ésta. 
Pero esos mapas, no sólo han mostrado a los rayos gamma, sino que fuera de programa, 
sorprendentemente han descrito la existencia de una nube relativamente alejada del plano del 
centro de la galaxia ubicada a un costado en los mapas de detección de rayos gamma, y cuyas 
bandas espectrales han sido captadas por uno de los más sensibles espectrómetros de la 
actualidad el OSSE, que se encuentra empotrado en el satélite CGRO. El estudio de las bandas del 
espectro que captó el OSSE señaló que se trataría de una nube de antimateria particulada, 
precisamente de positrones (antipartícula elemental). 
Ahora bien, el origen de esa inesperada nube de antimateria particulada que aparece a uno 
de los costados de los mapas desarrollados por el CGRO es, por ahora, un misterio. Seguramente 
se tendrá que esperar hasta que pueda entrar en servicio el próximo satélite que ha proyectado 
instalar en el espacio la NASA, en el año 2002, para el monitoreo, rastreo y estudio de rayos 
cósmicos y también antimateria. 
Las huellas espectrales de los procesos de aniquilamientos de electrones y positrones han 
sido detectadas por el espectrómetro OSSE. Los colores del mapa de la derecha representan la 
energía del aniquilamiento de electrones y positrones que han ocurrido en el plano de la Vía Láctea, 
cerca del centro galáctico, y que se han transformado en rayos gamma . La energía que se capta 
es de 511_[KeV], y corresponde a los restos energéticos de la masiva energía del positrón. El mapa 
es un modelo adaptado de los 511 KeV detectados. El OSSE ha descubierto que la mayor cantidad 
de radiación se concentra mayormente dentro de una región comprendida dentro de los 10 grados 
del diámetro del centro de la galaxia. Las líneas superpuestas sobre el mapa representan las 
emisiones de 511_[KeV] de energía captadas por el OSSE. 
La nube detectada de antimateria particulada , podría haberse formado a raíz de múltiples 
explosiones de estrellas, hecho que ha sido detectado justamente en el lugar de la galaxia donde 
fue hallada. Tampoco es descartable la eyección de antimateria particulada desde un disco de 
acreción de un agujero negro cercano al centro de la Vía Láctea, la fusión de dos estrellas de 
neutrones, o la producción de ella por una fuente enteramente diferente. 
Se piensa que los positrones así como la antimateria en general, son relativamente raros 
en el universo. Sin embargo, existen varias formas como para que sea posible la generación de 
positrones. Una de ellas es a través de la descomposición natural de los elementos radiactivos. 
Tales materiales radiactivos pueden originarse en fuentes astrofísicas como supernovas, novas, y 
estrellas Wolg-Rayet que son masivas y tienen una violenta actividad en sus superficies. Como se 
trata de objetos relativamente comunes en las galaxias, los positrones resultantes de los materiales 
radiactivos pueden expandirse a través del espacio. Es posible que este tipo de estrellas que 
generan estos materiales radiactivos sean también las responsables de crear toda la materia 
constituyente que se distribuye por el universo, incluida la Tierra. 
 
 Fuente Teórica de Antimateria Cósmica.- 
 Las bandas horizontales anchas representan a la radiación generada por la aniquilación 
desde el disco de la galaxia. La región circular de colores resaltados corresponde a la aniquilación 
radiactiva producida en el centro galáctico. La posible fuente de la antimateria particulada, 
descubierta por una radiación de aniquilación ascendente, se encontraría lejos del plano de la 
galaxia. 
Otra manera en que se podrían generar positrones es con la caída de materia sobre los 
campos gravitacionales altos de los agujeros negros, ya que la temperatura de ella debería 
incrementarse lo suficiente como para generar pares de positrones y electrones que podrían ser 
disparados lejos de los agujeros negros a velocidades altísimas. El número de positrones que se 
puedan crear en un agujero negro depende de la cantidad de materia que aporte por insuflación 
alguna estrella que esté jugando el rol de compañera, mientras que el número de positrones 
creados por descomposición radiactiva se mantiene constante por un largo período de tiempo. 
 
 Modelo Teórico de Fuente de Antimateria.- 
 Modelo de contornos graficados sobre una imagen óptica del lugar donde fue ubicada la 
nube de positrones en nuestra galaxia. No se pueden observar evidencias visuales de una fuente 
de gas caliente cerca del centro de la Vía Láctea debido a la gran cantidad de polvo y gas que se 
encuentra en ese lugar impidiendo una visión más profunda y detallada. 
Una tercera posibilidad es que en aquellos lugares donde se ha detectado la presencia de 
positrones --digamos por ahora en un sitio de nuestra galaxia-- sean espacios en que los últimos 
millones de años han sido la morada de la fusión de dos estrellas de neutrones de donde sale la 
emisión de partículas como un bólido galáctico masivo. De esos sucesos se crean las condiciones 
de los fenómenos de las explosiones de rayos gamma que tanto han desconcertado a los 
científicos que se focalizan en el estudio de las estructuras del cosmos. 
Dado que el universo muestra tener más materia que antimateria, el positrón tiene un muy 
corto período de existencia desde que se crea. El positrón es la antipartícula del electrón y cuando 
ambos colisionan se aniquilan convirtiéndose en energía que se manifiesta en rayos gamma con un 
rango energético de 511_[KeV], lo que refleja el aniquilamiento del positrón. 
 
 Recamado de la Fuente.- 
 Contornos de radio recamados sobre un modelo de la fuente de la radiación producida por 
la aniquilación. La observacion de los radios sugieren la existencia de un canal conductor de la 
radiación que va desde el centro de nuestra galaxia a latitudes altas. 
 En general, ello es consecuente con la ubicación y dirección de la fuente de aniquilación. 
Las primeras observaciones que se pudieron realizar de explosiones de rayos gamma 
debido a emanaciones desde el centro de nuestra galaxia fueron a comienzos de 1970, y 
registraban un rango energético de 511_[KeV]. 
Posteriormente, a comienzos de 1980, la energía de las explosiones pareció disminuir 
cuando aparentemente emanaba desde el mismo lugar registrado anteriormente, volviéndose a 
observar emisiones con el rango de 511_[KeV] en las últimas detecciones que realizó el 
espectrómetro OSSE del satélite CGRO. 
Ello estaría indicando que los aniquilamientos de positrones se estarían generando en una 
pequeña y discreta fuente, posiblemente en la vecindad de un agujero negro al cual se le ha 
apodado "El Aniquilador". 
La nube de antimateria particulada, que fue detectada en los mapas de explosiones de 
rayos gamma elaborados por el CGRO, se observa elevarse como un especie de pluma partiendodesde costado del centro de la Vía Láctea, y es extremadamente difusa. Por lo que se ha podido 
distinguir, es factible considerar que sólo hay en ella positrones, y no antiprotones o antiátomos. 
 
 Dibujo del Centro de la Vía Láctea.- 
 El dibujo de la derecha,????? representa al centro de la Vía Láctea con objetos y diferentes 
actividades cósmicas que cohabitan en esa región de la galaxia. 
 La actividad que más se distingue es una fuente de gas caliente cargado de positrones, mucho de 
ellos aniquilándose mientras viajan dentro de los halos galácticos. La radiación de esa aniquilación 
ha sido observada por los instrumentos del OSSE empotrados en el satélite CGRO. 
La detección de antiátomos fuera de los laboratorios no será un trabajo sencillo. Los antifotones 
que emitiría un antiátomo serían indistinguibles de los fotones que emitiría un átomo, de manera de 
que por este simple hecho de medición una galaxia no sería diferente de una antigalaxia. Tampoco 
es una labor sencilla rastrear señales de su presencia en los rayos cósmicos de alta energía. 
Ahora bien, el hecho de que se llegara a descubrir dentro de los flujos de emisión de rayos 
cósmicos de tan sólo un núcleo de antihelio, ello daría cabida como para pensar con más de un 
fundamento sobre la existencia de estrellas y galaxias de antimateria, lo que llevaría también a 
implicaciones profundas sobre aspectos fundamentales que guardan relación con la asimetría 
bariónica del universo. 
Para poder captar directamente los rayos cósmicos se han desarrollado experimentos con globos 
instalados en la atmósfera y satélites orbitando a la Tierra. Pero es un método que sólo permite la 
captación de ellos por algunas pocas horas y, en lapsos breves, solamente es posible distinguir 
antimateria si uno de cada 10.000 rayos cósmicos proviniera de un antinúcleo. Como las fuentes 
emisoras provienen desde lugares distantes, probablemente las antipartículas correspondan sólo a 
una de cada 10.000 millones de partículas. 
Pero, no cabe duda esperar, de que el espectrómetro Alfa Magnético orbitando fuera de la 
atmósfera, tendrá muchas mayores posibilidades de éxito que los experimentos con los actuales 
satélites, globos ubicados en la atmósfera o con instrumentos empotrados en la superficie de la 
Tierra. Se piensa que con el AMS se podrán detectar los rayos cósmicos vírgenes. Asimismo, las 
mediciones podrán extenderse por períodos mucho más prolongados, lo que indudablemente 
facilitará la ubicación de la antimateria en medio de lluvias de partículas comunes. 
Por los conocimientos experimentales que hemos adquirido hasta ahora, sobre la formación de 
antimateria en laboratorios y por el hallazgo de la existencia de positrones, no es arriesgado pensar 
en antimateria atómica deambulando por el espacio como fósiles ocasionados por los primeros 
segundos del Big Bang o como producto de la propia dinámica del universo. 
En teoría, en el momento del Big Bang, debiera haber habido igual cantidad de materia que de 
antimateria. Ahora, por qué esta última se fue extinguiendo, las razones de ello las podemos 
encontrar en la explicación que nos entregó, en el año 1967, el físico Andrei Sakharoc. Según él, 
ese proceso de extinción se debería a una pequeña asimetría en las leyes de la física, conocida 
como violación CP. 
Esa asimetría que formula Sakharoc, debería haber comenzado a intervenir en el primer segundo 
del Big Bang. En ese instante, y de acuerdo a la Teoría Unificada de la Física, todas las fuerzas que 
ahora se conocen en la naturaleza estaban fundidas en una sola, exteriorizadas en la llamada 
partícula X. Más tarde, cuando el universo se enfrió y estas partículas decayeron, la asimetría 
habría dejado una pequeña y mayor proporción de partículas en relación a las antipartículas. 
Específicamente, mil millones más una partícula, por cada mil millones de antipartículas. 
En función a lo inmediatamente anterior, la mayoría de los físicos piensan, por lo tanto, de que tanto 
partículas como antipartículas en un instante se habrían mezclado, y como ambas se aniquilan en 
una bocanada de rayos gama, el resultado final sería que el universo actual no estaría conformado 
por antimateria. Por lo menos, la brillantez del trasfondo de radiación que lo llena, cerca de mil 
millones de fotones por cada partícula de materia, indicaría que ello es así, efectivamente. Puede 
que esta sea una explicación convencional, pero comparto la opinión de Stephen Hawking y de 
otros científicos en cuanto a que pensar experimentalmente en la posibilidad de la existencia de 
galaxias y antigalaxias o, más aún, de universo y de antiuniverso es, de alguna manera, una 
contradicción con las leyes de la física. 
Lo anterior, no significa desterrar las posibilidades de que en algún momento la asimetría de las 
leyes de la física de las cuales hemos hablado podría haber sido revertida en ciertas regiones de la 
bola de fuego del Big Bang, favoreciendo la creación de antimateria sobre la materia. Eso abriría la 
posibilidad de que en alguna parte del espacio pueda haber sobrevivido antimateria, formando 
incluso, antigalaxias. Ello se sostiene en algunos modelos teóricos que se han desarrollado, pero se 
opone la experiencia experimental de laboratorio, lo que lo hace aparecer poco verosímil por ahora. 
La primera prioridad para la física en esta cuestión se encuentra en poder entender y distinguir 
cuales son las leyes que gobiernan la antimateria. 
Según la relatividad general, la antimateria tiene que comportarse básicamente como la materia, y 
esto si que abre una tremenda interrogante. 
Si el comportamiento es asímil y la antimateria esta presente fuera de los laboratorios, entonces 
que pasa con el efecto gravitatorio sobre ella. A lo mejor, ha empezado un ciclo de la física en que 
se podría llegar a cuestionar hasta sus leyes fundamentales. El mayor conocimiento que se está 
adquiriendo sobre la antimateria, promete revelar muchas interrogantes acerca del comienzo del 
universo. Después del Big Bang, existió tanta antimateria como materia, pero por lo que hasta 
ahora hemos deducido, sólo esta última fue capaz de sobrevivir los propios procesos evolutivos del 
universo, ya que la que hemos detectado en el espacio correspondería a una nueva generación. 
¿Por qué la antimateria estuvo y está condenada al ocaso? ¿Cómo fue que el universo no colapso 
fracciones de segundo después de que comenzó, si sabemos en laboratorio que la antimateria y la 
materia se anulan con sólo toparse? Estos, entre muchos otros, son algunos de los misterios que 
afloran con mayor intensidad al tenerse la certeza de que en experimentación de laboratorio se 
visualiza el antiátomo. 
De una cosa los humanos, por ahora, podemos estar seguros: solamente hemos podido detectar 
en el universo, precisamente cerca del centro de nuestra galaxia, antimateria particulada. En la 
Tierra, no hay fuente alguna de antimateria, y la exploración astronómica del sistema solar, 
incluyendo el astro central, tampoco la ha encontrado en ninguna parte. Los electrones y protones 
que nos llegan del Sol, atravesando la atmósfera terrestre, son partículas de la materia ordinaria. 
Tampoco es probable que los campos siderales -estrellas y materia interestelar- escondan 
antimateria; si no fuera así, estaríamos percibiendo regularmente, y en todas las direcciones de la 
galaxia, intensas radiaciones gamma, muy superiores a las detectadas en los aniquilamientos de 
positrones (antimateria particulada) que se han podido registrar, generada de la aniquilación de los 
antiátomos que cohabitaran allí, producto de sus colisiones con la materia ordinaria. Y tal cosa no 
ha sucedido, lo que debería ser inevitable si se considera que la materia se está constantemente 
intercambiando entre las estrellas. En cambio, ignoramos si remotas regiones extragalácticas dan o 
no dan albergue a la antimateria. 
Hemos detectado grandes radiaciones de rayos gamma, cuya procedencia, posiblemente, sea de 
explosiones

Continuar navegando