Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Este artículo ha sido publicado en el Anuario del Observatorio Astronó- mico de Madrid para el año 2014. 1 LA EXPANSIÓN ACELERADA DEL UNIVERSO Mario Tafalla Observatorio Astronómico Nacional Instituto Geográfico Nacional - Ministerio de Fomento Abstract The 2011 Nobel prize in physics recognized the discovery of the accelerating expansion of the Universe. Here we review at an introductory level how this discovery was possible, and follow the study of the Hubble diagram from the 1920s to the latest supernova results. Introducción “Por el descubrimiento de la expansión acelerada del universo a partir de observaciones de supernovas lejanas”1. Con estas palabras, la Real Academia Sueca de Ciencias anunciaba la concesión del premio Nobel de física de 2011 a tres astrónomos de origen estadounidense: Saul Perlmutter (medio premio), Brian P. Schmidt y Adam G. Riess (conjuntamente el otro medio). Los tres astrónomos, junto con numerosos colaboradores en universidades y centros de investigación de América, Europa y Australia, son responsables de uno de los descubrimientos más revolucionarios de las últimas décadas: la expansión acelerada del universo. La idea de que el universo se está expandiendo no es nueva. Fue establecida observacionalmente durante los años veinte del siglo pasado con el descubrimiento de una correlación entre el desplazamiento al rojo de la luz de las galaxias lejanas y la distancia a que éstas se encuentran. 1http://www.nobelprize.org/nobel_prizes/physics/laureates/2011/ 2 M. Tafalla Esta correlación indica que las galaxias del universo se separan de nosotros sistemáticamente siguiendo un patrón simple: cuanto más lejana es una galaxia, mayor es su velocidad de separación. Como resultado, el cociente entre la velocidad de alejamiento y la distancia de una galaxia es aproximadamente el mismo para todas las galaxias del universo. El valor de esta constante cosntituye un parámetro fundamental del universo, y determinar con precisión su valor fue uno de los objetivos principales de la cosmología observacional del siglo XX. El trabajo de los grupos de Perlmutter por un lado y de Schmidt y Riess por otro, representa la culminación de esta línea de trabajo, con la particularidad del uso de observaciones de supernovas para extender la medida de distancias a los valores más altos, y por tanto, a los tiempos más remotos. El resultado de Perlmutter, Schmidt, Riess y colaboradores no pudo ser más sorprendente. En vez de observar que la expansión del universo se ha ido decelerando con el tiempo, como era esperado por el efecto gradual de la atracción gravitacional entre los distintos elementos materiales del universo, estos investigadores observaron una débil pero significativa tendencia a la aceleración (Riess et al. 1998, Perlmutter et al. 1999). Este sorprendente resultado ha sido confirmado y refinado por numerosos investigadores que han participado en un sistemático esfuerzo observacional durante la última década y media. La concesión del premio Nobel a los principales responsables del descubrimiento muestra la confianza de la comunidad científica en un resultado observacional revolucionario y todavía misterioso. Los datos nos indican que el universo está acelerando su expansión. La naturaleza del agente causante de esa aceleración, que es tan poderoso como para dominar la evolución del universo, constituye uno de los misterios más fascinantes de la física del siglo XXI. La escalera de distancias cósmicas Desde un punto de vista observacional, la evidencia de que el universo se está expandiendo viene de la existencia de una relación de proporcionalidad entre la velocidad a la que las galaxias se alejan de nosotros y la distancia a la que se encuentran. Medir esta relación requiere determinar con precision dos parametros físicos muy distintos, la velocidad y la distancia de una galaxia. Medir con precisión la velocidad a la que las galaxias se alejan de nosotros es relativamente sencillo. La luz que éstas emiten cambia ligeramente de frecuencia dependiendo de su movimiento respecto a nosotros. Este cambio es a veces atribuido al llamado “efecto Doppler”, bien conocido en el laboratorio y denominado así en honor al físico austríaco Christian Doppler (1803-1853). En realidad, el cambio en La expansión acelerada del universo 3 frecuencia de la luz de las galaxias lejanas es un efecto relativista asociado a la expansión del espacio que nos separa de ellas. En una sección posterior discutiremos este efecto con más detalle. Por ahora, lo importante es que el efecto es medible con gran precisión comparando la frecuencia a la que se observan ciertas líneas espectrales de elementos químicos presentes en las galaxias con la frecuencia de las mismas líneas medida en el laboratorio. Típicamente, esta es una medida en la que se pueden alcanzar precisiones de varias cifras significativas, salvo en los objetos más lejanos, cuya luz está al límite del nivel de detección de la generación actual de telescopios. Medir la distancia a la que están las galaxias es mucho más complejo. Requiere un metodo indirecto, basado en una cadena de suposiciones y correcciones, cada una de ellas sujeta a distinto grado de incertidumbre. Los astrónomos denominan este método la “escalera de distancias cósmicas”, pues se asemeja a una secuencia de escalones de altura creciente. Los escalones más bajos son las determinaciones de distancias a objetos cercanos, que pueden hacerse con métodos geométricos de gran precisión, como la paralaje. Estos métodos, solo pueden aplicarse a objetos dentro de nuestra galaxia, y por tanto no sirven para hacer medidas cosmológicas. Usándolos, sin embargo, es posible medir distancias a tipos especiales de estrellas, cuyo brillo intrínseco puede ser así calibrado y usado posteriormente como una “candela estándar” para medir distancias mayores. Entre las diferentes candelas estándar, destacan las estrellas variables tipo RR Lyrae, y sobre todo, las variables cefeidas, que son fáciles de identificar por sus cambios regulares de brillo a lo largo de días o semanas. Las variables cefeidas son estrellas supergigantes, y su gran brillo las hace observables a distancias extragalácticas, por lo que tradicionalmente han sido usadas para estudiar la expansión del universo. El uso de cefeidas como indicadores de distancia está basado en la existencia de una relacion casi universal entre su periodo, luminosidad y color (PLC). Esta relación, inicialmente sólo entre el periodo y la luminosidad, fue descubierta por la astrónoma estadounidense Henrietta Swan Leavitt (1868-1921) (Leavitt 1908), y permite usar dos medidas observacionales de una estrella (periodo y color) para determinar su luminosidad intrínseca. Conocida la luminosidad intrínseca de la estrella, es posible inferir su distancia dado el brillo aparente con que se observa. A pesar de su simplicidad, la medida de distancias usando cefeidas no está exenta de dificultades. Por una parte, es necesario primero calibrar la relacion PLC, y esto requiere disponer de un numero elevado de cefeidas de distancia bien determinada. Al ser las cefeidas estrellas supergigantes, son relativamente raras, y el numero de ellas a distancias suficientemente pequeñas como para poder aplicar técnicas geométricas de paralaje es muy limitado. Además, las cefeidas son estrellas relativamente jóvenes (unos cien millones de años), y por tanto suelen estar todavía rodeadas 4 M. Tafalla Figura 1: Relación periodo-luminosidad de las variables cefeidas. El eje horizontal indica el periodo en días y el vertical la luminosidad en magnitudes. La figura representa tanto cefeidas en la Vía Láctea (“Milky Way”) como en la Gran Nebulosa de Magallanes (LMC). Midiendo el periodo de una cefeida y usando esta relación es posible determinar su luminosidad absoluta. Comparando ésta con el brillo observado es posible determinar la distancia. Imagen cortesía NASA, JPL-Caltech y W. Freedman. de gas y polvo que absorbe su luz y las hace parecer más débiles y rojas. Este efectonecesita ser corregido si la relación PLC quiere aplicarse correctamente. Finalmente, diferencias en la metalicidad de las cefeidas de distintas galaxias pueden introducir desviaciones sistemáticas en la relación PLC (ver Freedman & Madore 2010 para una discusión detallada). Un método alternativo, más simple pero de menos precisón, es el uso de las estrellas más brillantes de una galaxia. La idea detrás de este método es que aunque las estrellas de una galaxia presentan un rango muy amplio de luminosidades, el escoger la estrella más brillante, o el grupo de cierto número N de estrellas más brillantes, selecciona una población similar en todas las galaxias. Estas estrellas pueden por tanto usarse como candelas estándar. Algunas de las primeras determinaciones de distancias hechas para inferir la expansión del universo usaban este método, que desgraciadamente es muy sensible a errores sistemáticos. Una versión más precisa usa un criterio de color para seleccionar sólo estrellas en la rama de las gigantes rojas. La expansión acelerada del universo 5 A distancias mayores de unos 20 Mpc (20 megaparsecs, o unos 65 millones de años luz2), no es posible usar el método de las cefeidas o de la estrella más brillante debido a la dificultad de resolver estrellas individuales y eliminar la contribución a su luminosidad de estrellas vecinas. Por ello, la escalera de distancias cósmicas requiere un peldaño adicional. Este peldaño lo proporcionan ciertas relaciones empíricas, como la de Tully- Fisher, que liga la luminosidad total de una galaxia espiral con la velocidad de rotación de sus estrellas, o la relación de Faber-Jackson, que relaciona de forma análoga la luminosidad total de una galaxia elíptica con la velocidad de dispersión de sus estrellas. Con estas relaciones, es posible de nuevo estimar distancias comparando el brillo observado de una galaxia con la estimación del brillo intrínseco basada en una medida de la cinemática de sus estrellas. De esta manera, es posible estimar distancias de galaxias hasta unos 100 Mpc (unos 325 millones de años luz). El peldaño final de la escalera de distancias cósmicas lo aporta la observación de supernovas, en especial las de tipo Ia. El desarrollo de este método es lo que permitió a los grupos de Perlmutter, Schmidt y Riess extender el estudio de la expansión del universo hasta distancias en las que la aceleración es detectable. Dado su interés en el proceso del descubrimiento de la expansión acelerada del universo, estudiaremos este método con más detalle en una sección posterior. ¿Quién descubrió la expansión del universo? Frecuentemente se atribuye al astrónomo estadounidense Edwin Hubble (1889-1953) el descubrimiento de la expansión del universo, dada la importancia y calidad de sus estudios de la relación velocidad-distancia de galaxias. Por ello, la relación de proporcionalidad entre la velocidad y la distancia de las galaxias se denomina comúnmente “ley de Hubble”, y el valor de la constante que las relaciona “constante de Hubble”. Sin embargo, la historia del descubrimiento de la expansión del universo es más compleja que la aportación genial de un individuo, ya que fueron varios los astrónomos que contribuyeron tanto o más que Hubble a lo que sin duda es uno de los resultados más importantes de la ciencia contemporánea. Por ello, recientemente han surgido voces que intentan recuperar la memoria de los distintos autores de esas contribuciones, y que pretenden distribuir el crédito por este descubrimiento de una forma más equitativa (Nussbaumer et al. 2009). 2La unidad de distancia en astronomía es el parsec (abreviado pc), que equivale a 3,26 años luz o unos 3,1×1018 cm, y corresponde aproximadamente a la distancia a las estrellas más cercanas. Las distancias entre galaxias se suelen medir en megaparsecs (Mpc), es decir, millones de parsecs. 6 M. Tafalla Uno de los astrónomos que con sus medidas contribuyó de manera fundamental al descubrimiento de la expansión del universo fue el estadounidense Vesto M. Slipher (1875-1969), del Observatorio Lowell en Arizona. Vesto Slipher fue pionero en observaciones espectroscópicas de “nebulosas espirales”, que ahora sabemos corresponden a galaxias como la Vía Láctea, pero cuya naturaleza era todavía discutida en 1920 (año del famoso debate Curtis-Shapley). A finales de 1912, Slipher realizó la primera medida de la velocidad radial de una nebulosa espiral, la de Andrómeda, la más cercana de las galaxias parecidas a la Vía Láctea, que se encuentra a unos 0,8 Mpc. De esta medida, Slipher concluyó que esta nebulosa se está acercando a nosotros con una velocidad de 300 km/s, valor que está de acuerdo con estimaciones modernas. Durante los siguientes años, Slipher midió un buen número de velocidades radiales de nebulosas espirales, y en 1917 presentó una compilación de sus resultados (Slipher 1917). De un total de 25 nebulosas, Slipher encontró que 21 se alejan de nosotros, mientras que tan sólo 4 (una de ellas Andrómeda) se nos acerca. Esta preponderancia de velocidades de recesión (velocidades positivas en notación astronómica) era notable. Desgraciadamente, sin una idea clara de la naturaleza de las nebulosas, debido al desconocimiento de su distancia, la interpretación de esta tendencia observacional no resultaba todavía posible. A la vez que Slipher realizaba sus observaciones espectroscópicas de nebulosas espirales en Norteamérica, el físico alemán Albert Einstein (1879-1955) desarrollaba su teoría de la Relatividad General en Europa. Esta teoría resulta de aplicar los conceptos relativistas desarrollados por el propio Einstein en su teoría de la Relatividad Especial (Einstein 1905) a la fuerza de la gravedad, hasta entonces interpretada con la teoría de Newton. La nueva teoría de Einstein (Einstein 1916) describe la atracción mutua entre los objetos del universo como el resultado de la curvatura del espacio-tiempo, que es producida por la mera presencia de estos objetos. El espacio y el tiempo para Einstein, son por tanto elementos susceptibles de ser alterados por el contenido material y energético, pues materia y energía son equivalentes. En una de sus primeras aplicaciones de la teoría de la Relatividad General, Einstein considera las implicaciones cosmológicas de sus nuevas ecuaciones (Einstein 1917). Al hacerlo, se encuentra con el problema de que la única fuerza a gran escala en estas ecuaciones es la fuerza de la gravedad, y sólo con esta fuerza atractiva es imposible conseguir una solución de universo estática, que es el tipo de solución que se consideraba natural en 1917. Por ello, Einstein modifica sus ecuaciones, e introduce un nuevo término en ellas, la denominada constante cosmológica. Este nuevo término no tiene analogía en la mecánica newtoniana, pues representa una fuerza a gran escala que se opone a la gravedad. Sin embargo, el término está presente en la forma más general de las ecuaciones. Además, permite la solución estática que Einstein buscaba. La expansión acelerada del universo 7 Figura 2: Algunos de los principales protagonistas del estudio de la expansión del universo. Fila superior: Vesto M. Slipher, Albert Einstein y Georges Lemaître. Fila del medio: Edwin Hubble, Allan R. Sandage y Gérard de Vaucouleurs. Fila inferior: Saul Perlmutter, Brian P. Schmidt y Adam G. Riess. Fotos cortesía Wikimedia y Fundación Nobel (U. Montan). 8 M. Tafalla Como se descubrió pocos años después, la solución estática de Einstein presenta varios problemas. Uno de ellos es que es inestable (Eddington 1930). Por ejemplo, si se produce una ligera expansión en cierto punto del universo, esta expansión disminuirá la densidad de materia, y esto a su vez disminuirá la contribución de la gravedad frente a la constante cosmológica. Como resultado, la expansión inicial aumentará, y la densidad de materia del punto disminuira aún más, amplificando un ciclo que acabará por desbocarse. Lo mismo sucedería con una pequeña contracción. Por otra parte, las observaciones iniciadas por Slipher y continuadaspor Hubble y otros harán inevitable la conclusión de que el universo se está expandiendo. Con ello desaparece la motivación inicial de introducir la constante cosmológica en las ecuaciones de la Relatividad General. Uno podría pensar que la inconsistencia de la solución estática de Einstein y el descubrimiento de la expansión del universo marcan el fin de la constante cosmológica. Como veremos, la historia es más compleja. Desde un punto de vista lógico, la constante cosmológica es parte natural de las ecuaciones de la Relatividad General, y sólo una medida observacional de alta precisón podría demostrar que su valor es nulo. Por otra parte, el descubrimiento de que la expansión del universo se está acelerando ha renovado el interés en la constante cosmológica. La aceleración del universo requiere la presencia de una fuerza adicional de expansión, y la constante cosmológica representa una posible solución. Un tercer trabajo con importantes implicaciones cosmológicas aparece también en 1917. Pocos meses después de que Einstein introdujera el concepto de constante cosmológica, el astrónomo holandés Willem de Sitter (1872-1934) propone un modelo cosmológico alternativo, en el que esta constante juega un papel fundamental. La solución de de Sitter (1917) no contiene materia, y por tanto representa un universo dominado por la constante cosmológica. Como el de Einstein, este universo es considerado como estático, pero tiene la peculiaridad de que si en él se introducen particulas de prueba, éstas se separan aceleradamente por efecto de la constante cosmológica. Una predicción de este modelo es la preponderancia de movimientos de recesión de los objetos más lejanos que, como de Sitter reconoce en su trabajo, en el momento de su publicación se limita a sólo dos casos entre tres medidas de nebulosas espirales. Este “efecto de Sitter” gozará de cierta popularidad durante los años veinte, cuando las nuevas observaciones empiecen a mostrar una clara mayoría de galaxias alejándose de nosotros. Una familia alternativa de soluciones de las ecuaciones de la Relatividad General fue propuesta pocos años después por el matemático ruso Alexander Friedmann (1888-1925). Las soluciones de esta famila no son estáticas, como las de Einstein y de Sitter, sino que representan un universo que varía con el tiempo, e incluyen la posibilidad de un estado global de La expansión acelerada del universo 9 expansión (Friedmann 1922). Desgraciadamente, este trabajo pionero no parece haber sido reconocido como tal en su tiempo. Einstein mismo afirmó primero que era incorrecto matemáticamente, y tardó varios meses en darse cuenta de su error al criticarlo. La muerte prematura de Friedman tres años después contribuyó a su relativo olvido. En el campo observacional, el problema de la naturaleza y distancia de las nebulosas espirales queda finalmente resuelto en 1925, cuando Hubble anuncia el descubrimiento de cefeidas en la nebulosa de Andrómeda. Aunque ya había indicaciones previas, basadas en observaciones de novas, de que Andrómeda estaba a tal distancia que tenía que ser un objeto externo a la Vía Láctea, el descubrimiento de cefeidas en Andrómeda (Hubble 1925) zanja la disputa definitivamente y abre el camino a la medida de distancias extragalácticas usando cefeidas. Desgraciadamente, ahora sabemos que hay dos tipos diferentes de variables cefeidas, y que tienen una luminosidad muy distinta. Las llamadas cefeidas de tipo I (o cefeidas clásicas) son estrellas relativamente jóvenes, de unos 100 millones de años, que se observan normalmente en los brazos espirales de galaxias. Las cefeidas de tipo II (también llamadas variables W Virginis) son unas estrellas 100 veces más viejas y 4 veces más débiles que las cefeidas de tipo I, y se observan típicamente en cúmulos globulares. Las cefeidas descubiertas por Hubble en Andrómeda y otras galaxias eran de tipo I (las más brillantes), pero la relación periodo-luminosidad usada para determinar la distancia estaba basada en una mezcla de cefeidas de ambos tipos, y por tanto mal calibrada. Como resultado de este error, la distancia a Andrómeda se subestima significativamente (0,3 Mpc en vez de 0,8 Mpc), problema que se repite con la medida a otras galaxias durante los primeros años de la aplicación del método. La diferencia entre los dos tipos de cefeidas no será entendida, y el error de las distancias corregido, hasta varias décadas después, gracias al trabajo del astrónomo alemán Walter Baade (1893-1960) (Baade 1956). La primera persona que parece haber conectado correctamente las medidas de las nebulosas espirales con el marco de la Relatividad General fue el astrónomo y sacerdote belga Georges Lemaître (1894- 1966). En 1927, Lemaître publica, en francés y en una revista relativamente oscura, un artículo titulado “Un universo homogéneo de masa constante y radio creciente que explica las velocidades radiales de las nebulosas extragalácticas” (Lemaître 1927). En este artículo, Lemaître deduce una solución de las ecuaciones de la Relatividad General que representa un universo alternativo a los de Einstein y de Sitter, que considera incompletos, y que es equivalente a la solución propuesta por Friedmann en 1922 (que Lemaître parece desconocer en ese momento). Además de presentar esta solución de universo, Lemaître utiliza valores de las velocidades de galaxias espirales de la literatura (en gran medida debidas a Slipher) y estimaciones de la distancia a partir de trabajo previo de Hubble. 10 M. Tafalla Figura 3: Galaxia de Andrómeda y su primera variable cefeida. El panel de la izquierda es una imagen a gran escala de la galaxia de Andrómeda. El panel inferior derecho muestra la imagen en blanco y negro tomada por Edwin Hubble el 6 de octubre de 1923. Hubble inicialmente identificó tres novas, y las marcó con una letra N. Más tarde se dió cuenta de que una de las “novas” era en realidad una variable cefeida, la primera descubierta en Andrómeda. Por ello corrigió su anotación de “N” a “VAR!”. Este descubrimiento, publicado en 1925, demostró que Andrómeda es una galaxia externa a la Vía Láctea. El panel superior derecho muestra una imagen moderna del telescopio espacial Hubble con la estrella cefeida dentro de un círculo. Imagen cortesía NASA/ESA y Hubble Heritage Team. Con estos valores Lemaître deriva, entre otros parámetros, una tasa de expansión del universo (que ahora llamamos “constante de Hubble”) de unos 600 km/s/Mpc. Dada la importancia de estos resultados, hoy resulta sorprendente que el trabajo de Lemaître fuera en gran medida ignorado. Probablemente contribuyó a ello el hecho de su publicación en una revista de menor importancia que estaba escrita en francés en vez del inglés o alemán dominantes en el trabajo científico de la época. Otro factor importante fue la poca aceptación que en aquel momento tenía la idea de un universo La expansión acelerada del universo 11 en expansión. El mismo Einstein, en conversación privada con Lemaître, calificó tal tipo de universo como de “abominable” (Luminet 2013). Tres años después de la publicación del trabajo de Lemaître, en una reunión de la Royal Astronomical Society, el astrónomo británico Arthur Eddington (1882-1944) sugiere públicamente la posibilidad de usar un model de universo en expansión para explicar el desplazamiento al rojo sistemático de la luz de las nebulosas espirales (Luminet 2013). Lemaître parece haber leido el informe de la reunión y escribe a Eddington, que había sido profesor suyo en Cambridge, para recordarle los resultados de su artículo de 1927. Eddington, que parece haber olvidado el trabajo de Lemaître, se da cuenta que éste ha resuelto el problema que él había planteado, y que el trabajo de 1927 ha sido prácticamente ignorado. Por ello, invita a Lemaître a preparar una versión revisada de su trabajo original para publicarla en la revista británica Monthly Notices of the Royal Astronomical Society, de mucha mayor difusión e impacto. El nuevo artículo se publica en 1931 (Lemaître 1931), y es una traducciónal inglés con muy pocos cambios del artículo original en francés de 1927. El único cambio significativo en el artículo de 1931 es una ausencia de la discusión original sobre la proporcionalidad entre la velocidad de expansión de las galaxias y su distancia, lo que hoy llamamos ley de Hubble. Esta ausencia, ahora tan notable, ha sido calificada de sospechosa por algunos autores, que han llegado a sugerir la existencia de una conspiración para despojar a Lemaître del crédito que su trabajo merecía (van den Bergh 2011). Sin embargo, la correspondencia original entre Lemaître y la revista, descubierta recientemente por Livio (2011), muestra que fue el propio Lemaître el responsable de la traducción al inglés del artículo y de la eliminación del párrafo sobre la relación velocidad-distancia. Aunque Lemaître no lo dice explícitamente en su correspondencia, parece que en 1931 él ya pensaba que los datos de su discusión de 1927 habían sido mejorados por el trabajo de Hubble de 1929 (ver más abajo), y que por tanto, la discusión original de la relación velocidad-distancia no era necesaria en la nueva versión en inglés. Esta falta de pretensión de Lemaître por recibir crédito de lo que ahora consideramos un descubrimiento fundamental de la cosmología puede verse en algunas de sus declaraciones y publicaciones posteriores. Si el trabajo de Lemaître pasó desapercibido, el de Hubble no hizo lo mismo. En 1929, Hubble combina medidas de velocidad de galaxias (de nuevo en su mayoría debidas a Slipher pero tomadas de una compilación de Eddington), con estimaciones propias de distancia para demostrar gráficamente la existencia de una relación de proporcionalidad entre velocidad y distancia (Hubble 1929). Aunque observadores anteriores habían buscado evidencia de relaciones velocidad-distancia, en gran medida motivados por la búsqueda del llamado “efecto de Sitter” (Wirtz 1924, Lundmark 1925), el trabajo Hubble de 1929 es el primero que 12 M. Tafalla Figura 4: Dos versiones del diagrama velocidad-posición separadas más de 70 años. Arriba: diagrama original presentado por Hubble (1929). Abajo: Versión moderna obtenida por Freedman et al. (2001) usando datos del telescopio espacial Hubble. Nótese como la versión moderna extiende el rango original de distancias por dos órdenes de magnitud. Todos los puntos de Hubble (1929), si bien calibrados, caerían dentro de la primera subdivisión de eje de distancias en el segundo diagrama. Cortesía de The Astrophysical Journal. La expansión acelerada del universo 13 muestra una tendencia significativa en los datos. Con sus valores, Hubble estima una constante de proporcionalidad de 500 km/s/Mpc, no muy distinta a la deducida por Lemaître unos años antes. A diferencia de Lemaître, Hubble no interpreta la relación en términos de un universo en expansión. Dadas todas las incertidumbres en la estimaciones, Hubble es muy cauto con los resultados, y considera “prematuro discutir en detalle las obvias consecuencias de los resultados presentes”. Aun así, apunta el interés de la relación velocidad-distancia en términos del “efecto de Sitter”, en lo que entonces se consideraba un modelo de universo estático. Aunque Hubble no apreció todas las implicaciones cosmológicas de la relación velocidad-distancia, sí entendió la importancia del resultado. Por ello, continuó trabajando sistemáticamente para mejorar su determinación observacional. Pocos años más tarde, él y Milton L. Humason (1891-1972) publican un nuevo análisis de la relación velocidad-distancia, esta vez usando velocidades y distancias determinadas por ellos mismos (Hubble & Humason 1931). Con estos nuevos datos, que extienden el estudio de 1929 a distancias 18 veces mayores, Hubble y Humason estiman una constante de proprocionalidad de 538 km/s/Mpc, y sugieren un nivel de incertidumbre de tan solo un 10%. Como veremos enseguida, la estimación del nivel de incertidumbre de Hubble y Humason era extraordinariamente optimista. Ahora sabemos que su constante de proporcionalidad estaba sobreestimada por un factor 7 de- bido a un error sistemático en la determinación de distancias extragalácti- cas. Este error es enorme incluso para los estándares habitualmente gene- rosos de las medidas astronómicas. A pesar de ello, el trabajo de Hubble y Humason (1931) puede considerarse la obra definitiva de la época pio- nera en la determinacion de la relación velocidad-distancia. A partir de este momento, la existencia de una relación velocidad-distancia se con- sidera firmemente establecida, y la determinación exacta de esta constante pasa a ser un importante objetivo observacional. Alcanzar la precisión de 10% mencionada por Hubble y Humason, sin embargo, requerirá décadas de trabajo y avances en muy diversas ramas de la astronomía. Del astrónomo Hubble al telescopio espacial Hubble Aunque en la actualidad consideramos la existencia de una relación velocidad-distancia como la prueba definitiva de la expansión del universo, ese no era el caso en los años treinta del siglo XX. Por entonces, la relación se consideraba como un hecho observacional probado, pero su interpretación en términos cosmológicos era para algunos incierta. El propio Hubble mantuvo hasta su muerte una posición ambigua sobre su 14 M. Tafalla significado, y todavía se discute si de verdad creía que el universo está en un estado de expansión (Kragh & Smith 2003). Uno de los problemas que planteaba la interpretación de la relacion velocidad-distancia en términos de un universo en expansión era que, de acuerdo con la teoría de la Relatividad General, el inverso de la constante de Hubble representa la edad del universo si la constante cosmológica es nula (como ya aceptaban los principales teóricos: Einstein & de Sitter 1932). Al valor de 500 km/s/Mpc derivado por Hubble y otros le corresponde una edad del universo de unos 2 mil millones de años, que ya en los años treinta se consideraba demasiado pequeña. Por entonces, medidas a partir de cocientes isotópicos sugerían que la edad de la Tierra era de varios miles de millones de años. Una Tierra más vieja que el resto del universo representa una clara contradicción. El problema de que la constante de Hubble implique una edad del universo inferior a la edad de objetos astronómicos como la Tierra o los cúmulos globulares más antiguos (con edades de unos 10 mil millones de años) ha acompañado gran parte de la historia de su determinación durante el siglo XX. Un universo más viejo requiere una constante de Hubble más pequeña, y afortunadamente, la medida de la constante de Hubble ha sufrido con el tiempo una serie de correcciones a la baja. La primera gran corrección importante de la constante de Hubble se debe a la ya mencionada recalibración de la escala de distancias hecha por Baade en los años cincuenta al reconocer la existencia de dos tipos de estrellas cefeidas. Esta recalibración aumenta automáticamente la distancia a las galaxias en aproximadamente un factor 3, disminuyendo el valor de la constante de Hubble por el mismo valor. Este resultado coincide aproximadamente con la muerte de Hubble en 1953, por lo que que el trabajo de recalibrar la constante con la nueva escala de distancias lo llevan a cabo sus colaboradores y discípulos. En 1956, Humason, Mayal y Sandage publican los resultados de un programa observacional muy ambicioso comenzado por Hubble, quien, como dicen los autores,“de haber vivido, hubiera participado como autor senior en el análisis y la discusión”. Este monumental trabajo muestra que los objetos que Hubble y otros habían considerado como estrellas individuales en galaxias, y que habían sido la base para estimar distancias usando el método de las estrellas más brillantes, eran en realidad cúmulos densos o regiones HII (gas ionizado por estrellas masivas). Combinando la corrección de la escala de distancias con la determinación de velocidades de más de 800 galaxias, Humason, Mayal y Sandage (1956) estiman un nuevo valor para la constante de Hubble de 180 km/s/Mpc. Dos años después, AllanR. Sandage (1926-2010), antiguo estudiante de doctorado de Baade y colaborador de Hubble, vuelve a corregir la estimación de la constante de expansión del universo. A partir de un reanálisis de la escala de distancias usando cefeidas y del problema de La expansión acelerada del universo 15 Figura 5: Telescopio espacial Hubble. Cortesía NASA/ESA. la confusión de regiones HII, Sandage (1958) sugiere que el valor de la constante de Hubble se encuentra en el intervalo 50-100 km/s/Mpc. El resultado de Sandage fue premonitorio, pues el nivel de incertidum- bre en la medida de la constante de Hubble se mantuvo en un factor dos durante varias décadas. Sandage mismo dedicó una gran parte de su carrera científica a refinar la escala de distancias cósmicas y a mejorar la determi- nación de la constante de Hubble. En una serie de trabajos durante los años setenta y ochenta, él y sus colaboradores usan una variedad de métodos para medir distancias a galaxias, obteniendo sistemáticamente valores de la constante de Hubble en la zona inferior del intervalo, es decir, entre 50 y 60 km/s/Mpc. Por otra parte, el astrónomo francés de la Universidad de Texas Gérard de Vaucouleurs (1918-1995), junto con otro grupo de cola- boradores, estima valores en la zona superior del intervalo, típicamente en torno a 100 km/s/Mpc. A lo largo de casi dos décadas, cada grupo publica trabajos que apoyan sus resultados pero son incompatibles con las medidas del otro. La polémica sobre el valor exacto de la constante de Hubble se enquista durante los años setenta y ochenta. El lanzamiento del telescopio espacial Hubble en 1990 marca un hito en la historia de la determinación de la constante del mismo nombre. Medir la constante con una precisión del 10% es una de las motivaciones para construir este telescopio, y llevar a cabo esa medida representa una importante inversión de tiempo de observación. Sin la degradación causada 16 M. Tafalla Figura 6: Evolución de la estimación de la constante de Hubble (H0). Hasta finales de los años cincuenta, las medidas sobrestiman H0 sistemáticamente debido a un error en la escala de distancias extragalácticas. A partir de los años setenta, los valores se distribuyen de forma casi uniforme dentro del intervalo 50-100 km/s/Mpc, y a partir del año 2000, tienden a concentrarse en la parte baja de dicho intervalo. Figura adaptada y basada en la compilación de John Huchra, disponible en https://www.cfa.harvard.edu/~dfabricant/ huchra/hubble.plot.dat por la atmósfera terrestre, las imágenes del telescopio espacial (2,4 m de diámetro) son capaces de resolver cefeidas individuales en galaxias hasta el cúmulo de Virgo (unos 20 Mpc). Esto permite extender el método de las cefeidas a distancias 10 veces mayores de lo que es posible hacer desde telescopios terrestres, aumentando así el volumen espacial cubierto por este método en un factor 1000. Observando dentro de este mayor volumen calibradores secundarios, como explosiones supernova, se puede mejorar significativamente la precisión de estos calibradores, y extender así la precisión de la constante de Hubble a distancias verdaderamente cosmológicas. A pesar de la gran calidad de los datos obtenidos con el telecopio espa- cial, su uso para determinar la constante de Hubble con precisión requiere un enorme cuidado. Son todavía necesarias numerosas correcciones de difí- cil calibración, y el resultado final está sujeto a un nivel de incertidumbre que es necesario evaluar con detalle. Tras casi una década de trabajo, el grupo de astrónomos del llamado “Proyecto clave para medir la constante de Hubble con el Telescopio Espacial”, liderado por la astrónoma Wendy Freedman, presenta en 2001 su mejor estimación de la constante de Hub- ble. Según este grupo, H0 = 72±8 km/s/Mpc (Freedman et al. 2001), que es un valor casi equidistante de las estimaciones de 50 y 100 km/s/Mpc que La expansión acelerada del universo 17 dominaron la polémica Sandage-de Vaucouleurs durante las tres décadas anteriores. Con setenta años de retraso, por fin parece haberse cumplido el sueño original de Hubble y Humason de alcanzar una precisión del 10% en la determinación de H0. Aunque una estimación de la constante de Hubble con un 10% de incertidumbre empieza a poder ser caracterizada como “cosmología de precisión”, todavia existe un margen considerable para disminuir el nivel de error. Mejoras en la instrumentación y el lanzamiento de los telescopios espaciales de próxima generación GAIA y JWST prometen afinar la determinación de H0 usando la relación velocidad-distancia. Métodos alternativos, como el estudio del fondo cósmico de radiación o la distribución espacial de galaxias, proporcionan determinaciones de la constante de Hubble independientes de la clásica relación velocidad- distancia, y con el tiempo han alcanzado una gran precisión. Entre las medidas más recientes, destaca la determinación con el satélite Planck, que a partir de observaciones del fondo cósmico de radiación sugiere un valor de H0 = 67± 1 km/s/Mpc (Planck Collaboration 2013). La consistencia mutua entre las medidas obtenidas por distintos métodos proporciona la confianza de que finalmente conocemos con bastante precisión el valor de este parámetro fundamental del universo. ¿Qué mide la ley de Hubble? Desde un punto de vista observacional, la ley de Hubble es una simple correlación lineal entre el desplazamiento al rojo de la radiación de una galaxia y la distancia a la que se encuentra. Para entender su origen físico es necesario usar los conceptos de la Relatividad General, que es la teoría que mejor describe el universo a gran escala. Como demostraron inicialmente Friedmann y Lemaître en los años veinte, y formalizaron con más detalle Howard Robertson y Arthur Walker una década más tarde, existe una familia de soluciones de las ecuaciones de la Relatividad General en las que un universo homogéneo e isótropo3 se encuentra en estado de expansión (o contracción) global. La descripción matemática de estas soluciones supera el nivel de este artículo, por lo que en esta sección sólo veremos los conceptos más básicos. Una descripción más completa pueden encontrarse en monografías especializadas como la de Peebles (1993). La familia de modelos de un universo en expansión con principio cosmológico se suele llamar de Friedmann-Lemaître-Robertson-Walker, o alguna otra combinación del nombre de estos autores. Una propiedad característica de estos modelos es que la velocidad de separación entre dos 3El universo es homogéneo e isótropo si sus propiedades físicas no dependen de la posición o la dirección. La hipótesis de que el universo a gran escala tiene estas características se denomina “principio cosmológico”. 18 M. Tafalla galaxias cualesquiera es proporcional a la distancia (propia) que las separa, lo que puede escribirse como v = Hr, donde v es la velocidad de separación, r es la distancia propia entre las galaxias, y H es un parámetro independiente de r (“constante de Hubble”). En el marco de la Relatividad General, el movimiento de separación entre galaxias produce un desplazamiento al rojo de la radiación de una cuando es observada desde la otra, y este efecto es la causa de lo que observacionalmente reconocemos como la ley de Hubble. A diferencia de lo que supusieron Hubble y otros inicialmente, el desplazamiento al rojo de la radiación observado no se debe al conocido efecto Doppler, que es el causante de los cambios de frecuencia medidos en los objetos que se mueven dentro de la galaxia. En las observaciones extragalácticas que dan lugar a la ley de Hubble, el efecto dominante no son los movimientos propios de los objetos. Cada galaxia permanece casi estacionaria respecto a su entorno (salvo pequeños movimientos propios) y es el espacio entre las galaxias el que se expande. En esta situación, el desplazamiento al rojo de la radiación se debe a que durante su tiempo de viaje de una galaxia a la otra, el espacio se expande, y la longitud de onda de la radiación que viaja por él hace lo mismo.A velocidades bajas, el desplazamiento al rojo causado por la expansión del espacio sigue una ley equivalente a la del efecto Doppler correspondiente a la velocidad de recesión de una galaxia, por lo que las velocidades inferidas usando las dos interpretaciones son casi iguales. A velocidades altas, la ley del desplazamiento al rojo cosmológico es distinta al efecto Doppler, y las velocidades estimadas por los dos métodos difieren. Por otra parte, el concepto de velocidad de recesión de una galaxia debe ser refinado, pues no es necesariamente lo mismo la velocidad de recesión en el momento en que la galaxia emitió la radiación que en el momento en que esa radiación nos llega, dado que la velocidad de expansión del universo puede variar con el tiempo. Debido a ello, estimar la velocidad de recesión presente de una galaxia requiere conocer cómo ha evolucionado la velocidad de expansión del universo entre el momento de emisión de la radiación y el presente, lo que no es posible sin usar un modelo cosmológico. Para evitar esta complicación, los astrónomos prefieren usar el parámetro adimensional de desplazamiento al rojo cosmológico z, que es directamente medible y viene dado por z = λ0 λe −1, donde λ0 y λe son las longitudes de onda de la radiación medida por el observador y por el emisor (i.e., su valor en un laboratorio en reposo). La expansión acelerada del universo 19 El parámetro z tiene un valor muy bajo, cercano a cero, para las galaxias más cercanas, y crece a medida que las galaxias se encuentran más lejos y su velocidad de recesión aumenta. Multiplicando z por la velocidad de la luz c, se obtiene una cantidad con unidades de velocidad, que a velocidades bajas es igual a la velocidad de recesión de la galaxia con ese z, pero no es necesariamente igual a velocidades altas. Tanto z como cz son normalmente usados para construir las modernas versiones del diagrama de Hubble, aunque hay una ligera diferencia entre usar velocidad y z en el diagrama. Un diagrama velocidad-distancia es estrictamente lineal en el caso de un universo homogéneo (pero requiere un modelo de universo para ser determinado). Un diagrama z o cz -distancia, por otra parte, puede obtenerse directamente de medidas observacionales, aunque presenta una pequeña curvatura para valores elevados de z (Harrison 1993). Una ventaja adicional del parámetro observacional z es que proporciona una medida directa del factor de expansión del universo entre el momento en que una galaxia emitió la radiación observada y el presente. Ello es debido a que la longitud de onda de la radiación aumenta con la expansión del universo, y por tanto, lleva impresa la marca de tal expansión, que es igual a z+1. Así, es inmediato determinar que el universo se ha expandido un factor 2 desde el momento en que una galaxia con z = 1 emitió su luz y el momento actual cuando esa luz nos llega. Una diferencia importante entre la interpretación cosmológica del desplazamiento al rojo de la radiación y el efecto Doppler es que la velocidad de recesión de las galaxias puede superar la velocidad de la luz, lo que sería imposible si el desplazamiento al rojo se debiera al efecto Doppler. Esta posibilidad no constituye una violación del principio de la relatividad, que prohibe explícitamente que cualquier objeto viaje por el espacio más deprisa que c. Como hemos visto, la velocidad de recesión no representa un movimiento de objetos dentro del espacio sino que es el resultado de la expansión del propio espacio entre los objetos, y esta expansión no tiene límite de velocidad. De hecho, galaxias con z mayor que aproximadamente 1.5 se están separando de nosotros con velocidades mayores que c, y estas galaxias son observadas rutinariamente por los astrónomos. Más detalles sobre ésta y otras paradojas aparentes de la expansión del universo pueden verse en el artículo de divulgación por Lineweaver y Davis (2005). Es posible entender de forma intuitiva los modelos de Friedmann- Lemaître-Robertson-Walker usando una analogía simple de la mecánica newtoniana. En esta analogía, la expansión del universo se compara al movimiento de un objeto lanzado hacia arriba desde la superficie de nuestro planeta. Si la velocidad de lanzamiento es pequeña, la energía cinética del objeto no es capaz de vencer la atracción gravitacional de la Tierra. En este caso, la velocidad de ascensión inicial irá disminuyendo hasta llegar a cero y después se invertirá cuando el objeto empiece a caer. Si por el 20 M. Tafalla contrario la velocidad de lanzamiento del objeto es lo suficientemente alta como para superar la atracción gravitacional de la Tierra, la velocidad de ascensión del objeto disminuirá gradualmente, pero nunca llegará a ser cero y el objeto acabará escapando de la gravedad terrestre. En términos generales, el parámetro que regula la evolución del objeto es el cociente entre la velocidad de lanzamiento y la llamada velocidad de escape, que depende de la masa y radio de la Tierra. Si este parámetro es mayor que la unidad, el objeto escapa, y si es menor, el objeto vuelve a caer. La solución de las ecuaciones de la Relatividad General para un universo en expansión sin constante cosmológica tiene un corportamiento dual como el del objeto lanzado hacia arriba en la analogía newtoniana. La expansión del universo puede invertirse o continuar indefinidamente, igual que el objeto lanzado puede volver a caer o escapar para siempre. El parámetro que regula este comportamiento se denomina Ω, y es de nuevo igual al cociente entre dos cantidades. En este caso el cociente resulta de dividir la densidad material del universo por la llamada densidad crítica. Si la densidad del universo supera la densidad crítica, la expansión inicial se invierte, y el universo acaba contrayéndose. Si la densidad es inferior a la densidad crítica, el universo se expande indefinidamente. El caso en que Ω es exactamente igual a uno corresponde a una expansión infinita con una velocidad que se hace arbitrariamente baja con el tiempo, y es equivalente en la analogía newtoniana al caso de un lanzamiento con velocidad igual a la de escape. Si la evolución del universo depende de que su densidad supere o no la densidad crítica, es importante conocer el valor de ambas can- tidades. Las ecuaciones de la Relatividad General muestran que la densidad crítica del universo depende de la constante de Hubble y de la constante gravitacional, y que es aproximadamente igual a cinco átomos de hidrógeno por metro cúbico. Esta densidad es muy baja para estándares terrestres o incluso galácticos, pero a escalas intergalácticas es relativamente alta. De hecho, estimaciones de la densidad promedio del universo basadas en la observación de estrellas y de gas caliente y frío quedan sistemáticamente por debajo del valor crítico por más de un orden de magnitud, sugiriendo que el universo no tiene suficiente materia para contrarrestar su expansión inicial. Desgraciadamente, la estimación de la densidad del universo está sujeta a un alto grado de incertidumbre, pues existen posibles componentes invisibles que podríamos estar ignorando. Una de estas componentes es la llamada “materia oscura”, que como luego veremos, parece dominar la atracción gravitacional de galaxias y cúmulos de galaxias. Otro elemento que puede afectar a la expansión del universo es la constante comológica. Durante la mayor parte del siglo XX, la constante cosmológica fue ignorada tanto por razones teóricas como observacionales. Sin embargo, los resultados de la observación de supernovas que veremos más abajo han recuperado el interés por este término adicional de las La expansión acelerada del universo 21 Figura 7: Evolución de la expansión del universo dependiendo de su contenido material y energético. Si la constante cosmológica es nula, la expansión original se convertirá en contracción si ΩM es mayor que 1. La expansión continuará indefinidamente si ΩM es menor o igual a 1. Si el universo está dominado por la constante cosmológica, como parece ser el caso, la expansiónse acelerará con el tiempo tras una primera época de deceleración. Figura adaptada de Wikimedia. ecuaciones. Si la constante cosmológica no es nula, el comportamiento de las soluciones de universo es parecido al caso sin constante, pero definiendo ahora Ω como la suma de dos componentes. Una componente representa la contribución de la materia, tanto visible como invisible, y que denominamos ΩM . La otra componente representa la contribución de la constante cosmológica, y es denominada ΩΛ porque en las ecuaciones de la Relatividad General la constante cosmológica se representa por Λ. En términos de esas ecuaciones, el valor total de Ω determina la geometría del espacio-tiempo. Un universo con Ω mayor que uno es un universo esférico y un universo con Ω menor que uno es un universo hiperbólico. El caso límite con Ω = 1 es un universo plano como la geometría euclídea a la que estamos acostumbrados en la vida diaria. Dado que las contribuciones de la materia oscura y la constante cosmológica no son predecibles teóricamente, la única manera de determinar la evolución de la expansión del universo es mediante observaciones. De este modo, el problema de entender la naturaleza del universo se invierte, y es usando el estudio de su evolución temporal como esperamos determinar su composición invisible. Para ello es necesario cubrir con las observaciones la mayor cantidad posible de la historia de la expansión del universo, de manera que pequeños cambios en la tasa de expansión hayan acumulado un efecto observable. Esto requiere mirar hacia atrás en la historia de la expansión del universo, remontándose al 22 M. Tafalla pasado más remoto y midiendo allí la velocidad de expansión. Para ello aprovechamos que la velocidad de la luz es finita, y que podemos ver directamente este pasado observando objetos lejanos. La radiación que ahora nos llega de estos objetos trae la imagen fósil del momento en que se emitió. La gran frontera en cosmología es por tanto la observación de los objetos más lejanos, cuya luz presenta un desplazamiento al rojo z más alto. Por su enorme distancia, estos objetos son extremadamente débiles, y necesitan ser observados usando los telescopios más grandes a nuestra disposición. Determinar su distancia ha supuesto tener que crear un nuevo peldaño en la escalera de distancias cósmicas. Ello ha sido posible gracias a la observación de algunos de los objetos más brillantes conocidos, las explosiones supernova. Supernovas como candelas estándar El término supernova engloba varios tipos de explosiones estelares de gran energía que suceden en las últimas fases de la vida de una estrella masiva o de un sistema binario. Las explosiones supernova han sido observadas de forma casual a lo largo de la historia, aunque su origen no fue entendido en su momento. Entre otras supernovas históricas, destacan la “estrella invitada” de 1054, observada por astrónomos chinos y árabes en la constelación de Tauro, y las supernovas de Tycho Brahe (1572) y Johannes Kepler (1604) estudiadas, entre otros, por los dos conocidos astrónomos. Hubo que esperar al siglo XX para conocer los procesos que regulan la estructura y la evolución estelar, y así entender el origen físico de estas explosiones que hacen que una estrella pueda brillar brevemente más que el resto de la galaxia donde se encuentra. Desde un punto de vista observacional, las supernovas se dividen en tipos I y II dependiendo respectivamente de la ausencia o presencia de líneas de hidrógeno en el espectro. Cada uno de estos tipos se subdivide a su vez en subtipos según características adicionales del espectro, que se denotan con una letra. Para la determinación de distancias cosmológicas, las supernovas de mayor interés son las de tipo Ia, donde la letra “a” indica que durante las primeras fases de la explosión es posible observar en el espectro líneas de silicio ionizado una vez. Desde un punto de vista físico, las supernovas tipo Ia (abreviadas SNe Ia) corresponden a explosiones termonucleares en un sistema binario en el que una de las componentes es una enana blanca. Este tipo de sistemas binarios resulta de la evolución de dos estrellas de distinta masa ligadas gravitacionalmente y orbitando una alrededor de la otra. La estrella más masiva agota su combustible nuclear primero, pues su producción de energía es desproporcionadamente más rápida. Si la masa inicial de esta estrella es menor que unas ocho veces la masa de nuestro Sol, la estrella La expansión acelerada del universo 23 Figura 8: Supernova SN 1994D en la galaxia NGC 4526. Se trata de una supernova de tipo Ia en una galaxia relativamente próxima (17 Mpc) que, como su nombre indica, fue detectada en 1994. La supernova es el objeto puntual brillante en la zona inferior izquierda. Imagen tomada con el telescopio espacial Hubble. Cortesía NASA/ESA, The Hubble Key Project Team y The High-Z Supernova Search Team. perderá suficiente materia durante su evolución para al final de su vida convertirse en un objeto del tamaño del planeta Tierra pero con una masa como la del Sol. Este objeto denso, compuesto principalmente de carbono y oxígeno, que prácticamente no produce ya energía por reacciones nucleares y que se enfría lentamente, es lo que denominamos una enana blanca. La densidad de una enana blanca es más de un millón de veces superior a la del agua o a la densidad media del Sol. En estas condiciones extremas, la materia sólo puede estabilizarse frente a su autogravedad mediante el fenómeno cuántico de presión de degeneración de los electrones. Esta fuerza de presión resulta de la imposibilidad de que dos electrones (técnicamente partículas fermiónicas) compartan el mismo estado cuántico, y ofrece una resistencia a la contracción muy superior a la presión térmica de un plasma o a la presión de la radiación, que son los mecanismos que estabilizan a las estrellas en sus fases iniciales. En 1931, el físico indio Subrahmanyam Chandrasekhar (1910-1995) demostró que 24 M. Tafalla existe un valor máximo para la masa de una enana blanca que puede estabilizarse mediante el mecanismo de la presión de degeneración de sus electrones (Chandrasekhar 1931). Este valor, denominado ahora “límite de Chandrasekhar”, corresponde a aproximadamente 1,4 veces la masa del Sol, y es un parámetro crítico en la evolución estelar. En las primeras fases de la evolución de un sistema binario que va a producir una supernova tipo Ia, la estrella enana blanca tiene una masa inferior al límite de Chandrasekhar, y esta situación de estabilidad permite a la estrella compañera evolucionar con normalidad. Cuando esta segunda estrella empieza a agotar el combustible nuclear de su centro, su estructura interna cambia, y se convierte en lo que llamamos una gigante roja. En este tipo de estrellas, las capas más externas se expanden, se enfrían y quedan débilmente ligadas al núcleo denso central. Se produce entonces un fenómeno de transferencia de materia de la gigante roja a la enana blanca, la cual empieza a aumentar gradualmente de masa. Con el tiempo, la masa de la enana blanca se acerca al valor límite de Chandrasekhar. La física de lo que sucede cuando la enana blanca alcanza el límite de Chandrasekhar es compleja, y su solución requiere modelos numéricos al límite de las capacidades computacionales. El consenso actual es que la enana blanca sufre una reacción nuclear desbocada y global que convierte el carbono y el oxígeno que la componen principalmente en níquel, y que libera suficiente energía como para destruir completamente la estrella. Esta explosión nuclear a escala estelar es lo que observamos como una supernova, y su brillo visual absoluto puede superar el del Sol por un factor de varios miles de millones. Este enorme brillo resulta de una combinación de la energía de la propia explosión y, en las semanas posteriores a ella, de la energía de la desintegración de níquel y cobalto radiactivos producidos en la explosión, que calientan el material eyectado y matienen un brillo que disminuye gradualmente. Comocandelas estándar, las supernovas de tipo Ia presentan múltiples ventajas. Su enorme brillo permite observarlas en galaxias tan lejanas que en ellas no es posible distinguir estrellas cefeidas individuales. De esta manera, las supernovas tipo Ia permiten extender la relación velocidad- distancia a valores más altos. Por otra parte, las explosiones supernova tipo Ia forman un grupo muy homogéneo. Aunque su brillo máximo no es siempre el mismo, existe una correlacion estrecha entre el brillo máximo y la tasa a la que este brillo disminuye con el tiempo, lo que permite estimar con mucha precisión su brillo intrínseco a partir de observaciones. El uso de supernovas como candelas estándar fue propuesto por Walter Baade y Fritz Zwicky (1898-1974) a finales de los años treinta, pero su uso sistemático en la determinación de la constante de Hubble no fue posible hasta mucho más tarde. Por una parte, fue necesario entender las diferencias entre los distintos tipos de supernovas y refinar la clasificación de éstas en subgrupos según las propiedades de su espectro. La expansión acelerada del universo 25 Además, fue necesario determinar con precisión el brillo intrínseco de una muestra suficientemente completa de supernovas, y de esta manera disponer de un patrón de calibración fiable. Medidas precisas del brillo intrínseco de supernovas empezaron a ser posibles en gran medida gracias a observaciones con el telescopio espacial Hubble a partir de 1994. Estas observaciones permitieron encontrar estrellas cefeidas en galaxias donde había ocurrido una supernova tipo Ia, y de esta manera determinar la distancia a la galaxia e inferir de ella el brillo absoluto de la supernova. Gracias a estos avances teóricos y observacionales, a principios de los años noventa la escalera de distancias cósmicas tenía un nuevo peldaño. Usando ese nuevo peldaño, dos grupos de astrónomos van a intentar extender la ley de Hubble a escalas espaciales hasta entonces inalcanzables. “Supernovas de encargo” Aunque el uso de supernovas para medir distancias cósmicas presenta multitud de ventajas, también tiene inconvenientes de difícil superación. Un elemento incontrolable es la naturaleza aleatoria del fenómeno supernova. Se estima que, en promedio, una galaxia como la Vía Láctea tiene una explosión supernova tipo Ia cada 500 años aproximadamente. Esta explosión sucede sin aviso previo que indique dónde y cuándo mirar, por lo que no es posible preparar la observación de una supernova con antelación. Para encontrar supernovas, es necesario observar un gran número de galaxias, y reconocer entre ellas las pocas que casualmente han tenido una supernova recientemente. Dado lo infrecuente del caso, estas galaxias con supernova representan una muy pequeña fracción del total. Para observar un gran número de galaxias e identificar aquellas en las que acaba de ocurrir una supernova es necesario usar un procedimiento sistemático. Este procedimiento consiste en tomar dos imágenes separadas varios días o semanas, y usar la primera imagen como comparación de la segunda, sustrayéndola digitalmente. En la imagen diferencia, un candidato a supernova aparece como un objeto puntual y brillante en alguna de las galaxias contenidas en la imagen. Para confirmar este candidato como una supernova de tipo Ia, es necesario observar el espectro del objeto, lo que sirve además para determinar su desplazamiento al rojo z. Esto se realiza comparando el espectro observado con una serie de espectros de supernovas cercanas, y encontrando el desplazamiento en frecuencia necesario para hacer coincidir las líneas espectrales de los dos objetos. El grupo que primero desarrolló una técnica sistemática para buscar supernovas de alto z fue el Supernova Cosmology Project (SCP, o Proyecto de cosmología con supernovas), creado en 1988 y liderado por Saul Perlmutter en Berkeley (Estados Unidos). Este grupo ideó una metodología denominada “supernovas de encargo” (supernovae on demand 26 M. Tafalla Figura 9: Supernovas tipo Ia usadas por el grup HZT para determinar distancias (Riess et al. 1998). Izquierda: regiones del cielo donde se encontraron las supernovas (marcadas SN). Los números indican estrellas usadas como referencia. Derecha: curvas de luminosidad de varias supernovas. Los círculos vacíos indican el brillo en el filtro visible V y los rellenos en el filtro azul B. en inglés), que permitía asegurar que para cierta fecha, el grupo tendría aproximadamente dos docenas de supernovas en fase cercana al máximo en las que observar un espectro y determinar el tipo de supernova y el valor de z. Esta estrategia era necesaria porque la observación de espectros de supernovas lejanas requiere el uso de telescopios grandes, como los Keck en Hawaii (10 m de diámetro), y las observaciones con este tipo de telescopios se conceden de forma competitiva y se programan con antelación. Tener supernovas recientes en la fecha asignada para la observación espectroscópica requiere haberlas encontrado en las semanas anteriores. Para ello, el grupo de Perlmutter realizaba una campaña previa usando el telescopio de 4 m del Cerro Tololo Inter-American Observatory (CTIO) en Chile. En estas observaciones se tomaban, separadas por tres semanas, imágenes de entre 50 y 100 regiones del cielo, cada una con casi mil galaxias. De la comparación de las imágenes en las dos fechas, se identificaban los candidatos a supernova, que por la secuencia de observación se encontraban necesariamente cerca del máximo de brillo La expansión acelerada del universo 27 (una supernova tipo Ia tarda unas dos semanas en alcanzar su máximo brillo). Estas estrellas se observaban casi inmediatamente con uno de los telescopios Keck para obtener un espectro y determinar el tipo de supernova y el valor de z. Una vez identificado un objeto como supernova tipo Ia y con parámetro z determinado, éste se reobservaba durante meses para seguir su curva de luminosidad. Para ello, el grupo contaba con una red de colaboradores en diferentes telescopios. Una técnica parecida a la del SCP fue la usada por un grupo competidor, el denominado High-z Supernova Search Team (HZT, Equipo de búsqueda de supernovas de alto z), liderado por Brian Schmidt, y del que formaba parte Adam Riess. Este grupo contaba con numerosos expertos en supernovas de Harvard y Berkeley, entre otras instituciones, y empezó su búsqueda de supernovas en 1994, algo más tarde que el SCP. Durante varios años, los dos grupos fueron encontrando y midiendo suficientes supernovas tipo Ia como para remontarse en el pasado aproximadamente la mitad de la historia de la expansión del universo (z≈ 0,8). Un resultado inesperado Tanto el SCP como el HZT usaron para reconstruir la historia de la expansión del universo una versión ligeramente modificada del diagrama de Hubble. Como se muestra en la figura 10, en vez de representar velocidad frente a distancia, este diagrama modificado representa los dos principales parámetros observacionales del estudio de las supernovas, el brillo máximo, medido en magnitudes, y el desplazamiendo al rojo z. En este diagrama, los distintos modelos de universo predicen diferentes relaciones entre la magnitud y z, y es el objetivo de las observaciones distinguir entre ellos. Para pequeños desplazamientos z, los diferentes modelos son prácticamente iguales entre sí, pues las diferencias entre las magnitudes de las supernovas que predicen son menores que el nivel de error de las medidas. A medida que aumenta z, las diferencias entre los modelos de universo aumentan, y para valores de z superiores a aproximadamente 0,3, las diferencias empiezan a ser medibles con el nivel de precisión alcanzado por las observaciones. En 1998, los dos grupos competidores habían acumulado suficientes observaciones de calidad como para que los resultados empezaran a poder distinguir entre los diferentes modelos de universo. En una auténtica carrera contra reloj, las publicaciones se siguieron en el plazo de unos pocos meses. El grupo del HZT lo hizo primero, con untrabajo que presentaba observaciones de 10 supernovas de alto z (Riess et al. 1998). Pocos meses después, el SCP presentaba los resultados del análisis de 42 supernovas en un artículo aceptado por la revista en 1998 pero publicado al año siguiente (Perlmutter et al. 1999). 28 M. Tafalla Figura 10: Diagrama magnitud-desplazamiento z usado por el grupo SCP para estudiar la expansión del universo (Perlmutter et al. 1999). Los puntos representan medidas con supernovas y las líneas son posibles modelos de universo. Sólo modelos con aceleración, representada por la constante cosmológica Λ, son capaces de explicar las magnitudes altas (brillos bajos) de las supernovas con z más alto. Antes de publicar sus resultados los dos grupos tuvieron que vencer muchas reticencias. Ambos equipos esperaban observar que la expansión del universo se ha ido decelerando a lo largo de la historia, como estaba previsto debido a la atracción gravitacional entre las distintas componentes materiales. Los resultados, sin embargo, contradecían esa expectativa inicial. Desde un punto de vista observacional, los datos de ambos grupos mostraban que supernovas más distantes tenían sistemáticamente una magnitud mayor de lo esperado, es decir, eran más debiles de lo predicho si el universo estuviera decelerando su expansión (debido a una convención antigua de unidades, la magnitud de un objeto aumenta a medida que su brillo disminuye). Si las supernovas más lejanas eran más débiles de lo esperado, es porque estaban más lejos de los previsto. La única manera de explicar esta discrepancia are concluir que la expansión del universo se ha ido acelerando con el tiempo, lo contrario de lo inicialmente esperado. Una manera de entender lo sorprendente del resultado obtenido con las supernovas es usando de nuevo la analogía con el lanzamiento de un objeto hacia arriba. Independiente de que la velocidad de lanzamiento supere la velocidad de escape, el objeto se irá frenando a medida que sube. El universo observado por los grupos SCP y HZT usando supernovas se La expansión acelerada del universo 29 comporta de una manera totalmente distinta. Es como si al tirar el objeto hacia arriba, éste no sólo subiera, sino que acelerara su ascensión a medida que gana altura. La aceleración del universo requiere la presencia de una fuerza a gran escala opuesta a la gravedad. Como vimos antes, la teoría de la Relatividad General proporciona un mecanismo natural con esas características, la constante cosmológica introducida por Einstein en 1917. Por ello, la constante cosmológica fue el mecanismo elegido tanto por el HZT como el SCP para interpretar sus observaciones de supernovas. Esto puede verse en la figura 10, que muestra el diagrama de Hubble creado por el equipo SCP en su trabajo de presentación de los primeros datos de supernovas de alto z. Estas supernovas (42 en total) están representadas por círculos rojos, y complementan los valores obtenidos por otro grupo observando supernovas más próximas (círculos amarillos). Las líneas azules y negras muestran las predicciones teóricas de modelos de universo de distinta densidad de materia (parametrizada con ΩM) y constante cosmológica (parametrizada con ΩΛ). Como puede verse, las supernovas observadas son aproximadamente un 15% más débiles que el caso más extremo sin constante cosmológica (un universo vacío con ΩM = ΩΛ = 0). Sólamente añadiendo una constante cosmológica no nula es posible explicar las observaciones obtenidas. Aunque los resultados de las supernovas eran sorprendentes, el hecho de que fuesen obtenidos por dos grupos independientes y competidores entre sí les dió gran credibilidad desde el principio. Aún así, un resultado tan sorprendente necesita ser validado con observaciones independientes por una comunidad diversa con intereses muchas veces contrapuestos. Por ello, a las publicaciones originales de 1998-99 siguió una avalancha de observaciones para encontrar más supernovas con las que confirmar o refutar los resultados iniciales. Tras más de una década de intenso trabajo, las nuevas medidas han confirmado el resultado inicial. Las supernovas más lejanas son sistemáticamente más débiles, y esto indica que la expansión del universo se ha acelerado con el tiempo. Un ejemplo de los últimos resultados es la figura 11, que presenta una compilación de más de 500 supernovas obtenidas por diferentes grupos a lo largo de una década de trabajo. La enorme cantidad de puntos observacionales, y su bajo nivel de dispersión, permite observar un corportamiento extraordinariamente sistemático que puede ajustarse satisfactoriamente con un modelo de universo en expansión acelerada. La observación de supernovas adicionales y la extensión del diagrama de Hubble a valores de z cada vez más altos tiene como objetivo ir más allá de verificar la existencia de una aceleración en la expansión del universo. Medir supernovas de z creciente significa remontarse hacia atrás en el tiempo y, de esta manera, poder explorar la historia de la expansión en detalle. Los resultados de supernovas obtenidos en la última década han 30 M. Tafalla Amanullah et al. (2010) Supernova Cosmology Project Union2 Compilation Figura 11: Compilación reciente de supernovas por Amanullah et al. (2010). La combinación de datos de 557 supernovas tipo Ia no sólo confirma las conclusiones originales de los primeros trabajos, sino que permite reconstruir con gran precisión la historia de la expansión acelerada del universo, modelizada en la figura por la línea gris. permitido reconstruir esa historia de la expansión midiendo los cambios que ésta ha sufrido a lo largo de los últimos casi 10 mil millones de años, lo que representa una parte considerable de la historia total del universo, que tiene 14 mil millones de años. Según estas observaciones, la aceleración del universo es un efecto relativamente reciente, que sólo ha sucedido en los últimos cinco o seis mil millones de años. En épocas anteriores, el universo se deceleraba de la manera esperada por el efecto de la gravedad. Una combinación de deceleración inicial y aceleración porterior es exactamente lo que predice un modelo de universo con constante cosmológica. Como hemos visto, esta constante juega un papel de fuerza opuesta a la gravedad, y su contribución en cada punto es proporcional al volumen de espacio considerado. Por ello, el aumento de volumen asociado a la expansión del universo hace crecer el efecto de la constante cosmológica de forma sistemática. En una primera fase de su evolución, el universo era relativamente compacto y estaba dominado por la materia. En esta fase, la expansión del espacio estaba limitada por la atracción gravitacional entre las componentes materiales, y el universo se iba decelerando lentamente. A medida que la expansión del espacio progresó, La expansión acelerada del universo 31 la contribución de la constante cosmológica fue aumentando gradualmente de forma proporcional al incremento de volumen, y hace cinco o seis mil millones de años esta contribución superó al efecto opuesto de la gravedad. A partir de ese momento, el balance de fuerzas se invirtió, y la constante cosmológica comenzó a dominar la expansión del universo. El resultado es el universo acelerado que observamos actualmente. Más allá del diagrama de Hubble Hasta ahora hemos estudiado la expansión del universo centrándonos en el diagrama de Hubble. Históricamente, este diagrama proporcionó las primeras pruebas tanto de la expansión del universo como de su aceleración, pues representa la manera más directa de medir el estado cinemático del universo. Sin embargo, no es la única forma posible. Como sería de esperar, la expansión del universo ha tenido un efecto global y por ello ha dejado su marca en muchos otros fenómenos observables. Estudiando estos fenómenos es posible poner a prueba las conclusiones obtenidas analizando el diagrama de Hubble, y en algunos casos, añadir nueva información sobre la historia de la expansión del universo. Aunque hay un gran número de observables,en esta sección sólo veremos brevemente los dos más importantes. Una fuente de información única sobre la historia del universo y sus de propiedades tempranas es el fondo cósmico de radiación. Este fondo cósmico es una radiación difusa remanente de la época densa y caliente en la que la materia y la radiación del universo dejaron de convivir en equilibrio. Ello sucedió unos 400.000 años después del principio de la expansión, lo que llamamos el Big Bang. En la actualidad, el fondo de radiación es detectable sobre todo a frecuencias radio, y su descubrimiento accidental en 1965 fue galardonado con un premio Nobel de física a Arno A. Penzias y Robert W. Wilson en 1987. Una propiedad importante del fondo de radiación es su extraordinaria homogeneidad espectral y espacial. La distribución de la radiación en frecuencias es, dentro de las incertidumbres de la medida, la de un cuerpo negro perfecto de aproximadamente 2,7 K de temperatura. En cuanto a su distribución espacial, la radiación es homogénea (salvo la presencia de una componente dipolar) mejor que una parte en 10.000. Sólo con medidas de alta precisión, como las del satélite Cosmic Background Explorer (COBE), ha sido posible medir las inhomogeneidades espaciales en la distribución del fondo de radiación. Estas inhomogeneidades reflejan las fluctuaciones de densidad y temperatura del universo en el momento en que se generó el fondo de radiación, y son las semillas de la estructura que dio lugar a las galaxias y los cúmulos de galaxias actuales. El descubrimiento en 1992 de estas inhomogeneidades con observaciones del satélite COBE fue 32 M. Tafalla Figura 12: Resultados del análisis de las inhomogeneidades del fondo cósmico observadas con el satélite Planck. Arriba: mapa de la distribución espacial de las inhomogeneidades (aumentadas un factor 5.400 para hacerlas visibles). Abajo: descomposición de las inhomogeneidades en función de la escala angular, desde 90◦ a 4′. La línea verde es un modelo de universo con materia y energía oscura que ajusta los datos dentro del nivel de ruido. Cortesía ESA y Planck Collaboration. galardonado también con el premio Nobel de física a John C. Mather y George F. Smoot en 2006. El estudio de las inhomogeneidades del fondo cósmico se realiza observando la intensidad de la radiación en todas direcciones, y midiendo el nivel de los cambios de brillo a cada escala angular, desde decenas de grados hasta segundos de arco. A las medidas originales del satélite COBE se han añadido nuevas observaciones obtenidas desde tierra, globos sonda y nuevas generaciones de satélites, como el estadounidense Wilkinson Microwave Anisotropy Probe (WMAP) y el europeo Planck. Estas medidas La expansión acelerada del universo 33 revelan el estado del plasma de bariones y fotones que componía el universo cuando la radiación se originó, y corresponden a una medida del universo con un desplazamiento al rojo z de approximadamente 1.100. Desde este momento de emisión, la radiación del fondo cósmico ha viajado por el espacio y, por ello, las inhomogeneidades originales llevan superpuestas los efectos de la expansión del universo. Observando esas inhomogeneidades, podemos remontarnos a una época en la que todavía no había ni galaxias ni supernovas, y que es por tanto inaccesible usando la técnica del diagrama de Hubble. Otra fuente de información sobre la expansión del universo son las llamadas oscilaciones acústicas de bariones (abreviadas BAO en inglés). Estas oscilaciones son el resultado de la evolución temporal de las fluctuaciones originales de densidad y temperatura que dieron lugar a las inhomogeneidades del fondo cósmico. Con el tiempo, estas inhomogeneidades dejaron su huella en la materia bariónica que dio lugar a las galaxias y, por ello, su presencia se manifiesta como una ligera tendencia de las galaxias a presentar un exceso de separaciones a cierta distancia característica. Observaciones de decenas de miles de galaxias, como las realizadas por el proyecto Sloan Digital Sky Survey, han encontrado evidencia de este exceso de galaxias a separaciones de unos 150 Mpc, confirmando las espectativas teóricas y proporcionando una importante medida de una escala característica de la estructura del universo. La combinación de los resultados de supernovas, anisotropías del fondo cósmico de radiación y oscilaciones acústicas de bariones proporciona una prueba de autoconsistencia muy fuerte al modelo de expansión acelerada del universo. De forma independiente, cada observación sugiere un universo en expansión acelerada. Juntas, las observaciones pueden usarse para determinar con gran precisión la composición material y energética del universo. Esto puede verse en la figura 12, que muestra las regiones del plano (ΩM , ΩΛ) favorecidas por cada uno de los tres métodos: diagrama de Hubble con supernovas (SNe), fondo cósmico de radiación (CMB), y oscilaciones acústicas de bariones (BOA). Debido a la existencia de errores experimentales y a cierta ambiguedad en la determinación de parámetros, ninguno de los tres métodos es capaz de medir con precisón los valores de ΩM y ΩΛ del universo. Cada método favorece una banda de probabilidad, y por tanto una posible combinación de los dos parámetros. La intersección de las tres bandas, sin embargo, restringe enormemente el nivel de ambiguedad, y determina con mucha precisón el valor más probable de ΩM y ΩΛ. Como puede verse, los resultados actuales sugieren que la densidad total de materia en el universo ΩM es aproximadamente 0,3 veces la densidad crítica, y que la contribución de la constante cosmológica ΩΛ es del orden de 0,7. Un resultado adicional de la determinación de ΩM y ΩΛ mostrada en la figura 12 es que la suma de las dos cantidades es muy próxima a la unidad. 34 M. Tafalla Figura 13: Determinación de los parametros cosmológicos ΩM y ΩΛ combinando datos de supernovas (SNe), fondo cósmico de radiación (CMB) y oscilaciones acústicas de bariones (BAO). Cada uno de los métodos favorece una amplia región del plano (ΩM , ΩΛ), mientras que la intersección restringe los valores a aproximadamente 0,3 y 0,7. (Kowalski et al. 2008). Como vimos, la suma de las dos contribuciones proporciona una medida de la geometría global del universo, y en particular de su curvatura. Un valor igual a uno equivale al espacio plano al que estamos acostumbrados en la geometría euclidiana, en el que las rectas paralelas no se cruzan y los ángulos de los triángulos suman 180 grados. Tal tipo de espacio es precisamente el predicho por el modelo inflacionario, según el cual, inmediatamente después del Big Bang, existió una época en la que el universo se expandió de manera desbocada. ¿De qué está hecho el universo? La consistencia entre los resultados de los distintos métodos ilustrados en la figura 12 sugiere que la determinación de parámetros cosmológicos La expansión acelerada del universo 35 como ΩM y ΩΛ ha alcanzado un alto grado de fiabilidad. Aunque el acuerdo entre los distintos métodos no es perfecto, como ilustran algunas diferencias existentes entre la determinación de la constante de Hubble a partir de supernovas y a partir del fondo cósmico, las diferencias son del orden del 5%, lo que está muy lejos del factor dos que existía en un pasado no muy lejano. Una lectura optimista de la situación es que hemos alcanzado una determinación cuantitativa precisa de los parámetros fundamentales del universo. En contraste con lo anterior, la interpretación de los resultados cosmológicos en términos físicos dista mucho de ser satisfactoria. Por ejemplo, hemos visto que la densidad de materia en el universo ΩM es aproximadamente 0,3 veces la densidad crítica. Sin embargo, un gran número de observaciones independientes muestra que la densidad bariónica del universo no llega a 0,05 veces la densidad crítica, lo que representa sólo la sexta parte del total. Esto significa que la mayor parte de la materia del universo pertenece a una categoría no bariónica cuya naturaleza desconocemos, y que es distinta de la
Compartir