Logo Studenta

relatividadgeneralunsiglo1

¡Este material tiene más páginas!

Vista previa del material en texto

Relatividad General
Un siglo con las ecuaciones de Einstein
Enrique F. Borja
Versión: 0.1β
Sevilla, 2015
Al final, todo es geometŕıa
Índice general
1. Introducción 7
1.1. ¿Para quién? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2. ¿Qué voy a encontrar? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. ¿Ejercicios? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Errores tipográficos, ortográficos y conceptuales . . . . . . . . . . . . . . . . . . . . . . 10
1.5. ¿Cuándo habrá más? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Parte Matemática 13
2. Pinceladas de topoloǵıa 15
2.1. Espacio topológico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Funciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3. Homeomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3. Cartas, Atlas y Variedades Diferenciales 21
3.1. Cartas coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Atlas y Variedades Diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3
4 ÍNDICE GENERAL
3.3. Funciones entre variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4. Vectores y Espacios Tangentes 29
4.1. Curvas en Variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2. Vector tangente a M en el punto p - Definición geométrica . . . . . . . . . . . . . . . . 32
4.3. Vector tangente a la variedad M en el punto p - Definición algebraica . . . . . . . . . 34
4.4. Campos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.5. Un vector expresado en dos cartas - Transformación de coordenadas . . . . . . . . . . 46
4.6. Índices mudos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5. Covectores/1-Formas y Espacios Cotangentes 49
6. Tensores 51
6.1. Operaciones entre tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2. La versatilidad tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7. Métrica 57
7.1. Definición de Métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
7.2. Métricas en variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.3. Subir y bajar ı́ndices de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.4. Más sobre contracciones de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.5. Teorema de planitud local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8. Derivada Covariante 69
8.1. La derivada covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.2. Derivada covariante de una 1-forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
ÍNDICE GENERAL 5
8.3. Corchete de campos vectoriales y la derivada covariante . . . . . . . . . . . . . . . . . 77
8.4. Derivada covariante de un tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.5. Conexiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.6. Torsión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.7. La conexión métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.8. Transporte paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.9. Geodésicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9. Curvatura - El tensor de Riemann 89
9.1. Curvatura y curvas cerradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.2. El tensor de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.3. Desviación geodésica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.4. Las simetŕıas del tensor de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.5. La identidad de Bianchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.6. Las contracciones del tensor de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.7. La identidad de Bianchi contraida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Parte F́ısica 103
10.Tensor Enerǵıa-Momento 105
11.La gravedad de Newton 109
11.1. Gravedad Newtoniana y Relatividad Especial . . . . . . . . . . . . . . . . . . . . . . . 110
11.2. El principio de equivalencia de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6 ÍNDICE GENERAL
12.El principio de equivalencia en manos de Einstein 113
12.1. La idea más feliz de su vida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
13.F́ısica y Matemáticas: Las ecuaciones de Einstein 119
13.1. La hora de la verdad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
13.2. Las ecuaciones de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
14.Bibliograf́ıa comentada 125
14.1. Para la matemática pura y dura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
14.2. Relatividad General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Caṕıtulo 1
Introducción
Aqúı tienes un escrito en castellano sobre relatividad general. La idea que teńıa en mente desde
hace tiempo es la de escribir un libro de relatividad general a mi manera. Un libro donde pudiera poner
mi forma de entender la teoŕıa f́ısica y el armazón matemático. Aśı que lee esto con todas las reservas
del mundo. El estilo es el mı́o, no es el estilo convencional de un libro de texto ni he pretendido que
lo sea.
La idea es que con el tiempo aqúı vayan apareciendo agujeros negros, cosmoloǵıa, ondas gravitacio-
nales, estructura causal del espaciotiempo y fundamentos matemáticos más elevados como formulación
variacional, tétradas, espinores, etc.
Como supondrás, el libro está incompleto. Se da un paseo por la geometŕıa diferencial básica para
poder llegar a las ecuaciones de Einstein de la relatividad general. El motivo de publicarlo en este
lamentable estado es el de celebrar el siglo que va a cumplir la publicación de las ecuaciones básicas
de la relatividad general. Y eso es todo, ni más ni menos.
7
8 CAPÍTULO 1. INTRODUCCIÓN
1.1. ¿Para quién?
Si te preguntas si este amago de libro está a tu alcance has de saber una cosa: Este no es un libro
de divulgación. En él vas a encontrar formalismo pero en un estilo informal. No tiene la estructura de
teorema-demostración de muchos libros de los de verdad del tema. También es cierto que muchos de
los libros que prefiero para estudiar la relatividad general no tienen esa estructura.
Aśı que una vez que hemos aclarado que este no es un texto de divulgación puedo decir quien creo
yo que puede sacar algún provecho de este texto.
En mi opinión este libro está pensado para que cualquiera que haya estudiado álgebra lineal y
funciones de varias variables pueda seguir todas las explicaciones. Todos los conceptos se han intentado
introducir de una forma amable y sin dramatismos. Si estás en ese caso y te interesa la relatividad
general este puede ser un buen punto de partida.
1.2. ¿Qué voy a encontrar?
En esta versión se ha intentado ir lo más directo y rápido posible hasta las ecuaciones de Einstein.
Seguro que has óıdo decir que la relatividad general nos dice que el espaciotiempo se curva por la
presencia de enerǵıa y todo eso. Aqúı se explica el ‘todo eso’. Se introduce el concepto de variedad
diferenciable desde la base, se introducenlos vectores y los espacios tangentes, los cotangentes, pasamos
a tensores, derivadas covariantes y curvaturas.
He intentado que la cosa fluya de la forma más suave posible a costa de sacrificar explicaciones de
otros conceptos que, aunque interesant́ısimos, no son esenciales para el objetivo marcado. Todo esto
en mi opinión, estoy seguro de que hay quien opine que esto es un sacrilegio.
La cosa es tan laxa que no voy he hablado de formas diferenciales, no he hablado de derivadas
1.2. ¿QUÉ VOY A ENCONTRAR? 9
de Lie, no he introducido los vectores de Killing, etc. La principal causa es mi prisa por sacar esto
a la luz. La secundaria es que no he tenido necesidad imperiosa de usar tales conceptos. Pero no os
preocupéis, aparecerán en próximas versiones y todo será gozo y parabienes. Además, creo que si te
zampas estas páginas luego los otros conceptos los considerarás pan comido. Esto es como todo, el
secreto está en acostumbrarse al tema.
Si nunca has estudiado relatividad general o geometŕıa diferencial descubrirás un mundo asombroso.
Una nueva forma de ver el espacio que nos rodea y del que formamos parte. La relatividad general
cambió cŕıticamente la forma en la que se haćıa la f́ısica teórica. Podemos decir que gracias a la
aparición de la relatividad general se pudo llegar a la formulación de las teoŕıas de las interacciones
fundamentales no gravitatorias. Esas teoŕıas del electromagnetismo, la interacción débil o la fuerte,
que se han podido escribir de forma cuántica, se basan en muchos de los conceptos aqúı presentados.
Se puede decir que es una buena forma de acercarse a las formulaciones de tales teoŕıas desde el punto
de vista matemático sin perderse en los vericuetos caminos de lo cuántico.
Una cosilla aśı sin importancia. No hay numeración en las fórmulas. No te encontrarás en ningún
sitio eso de -según la fórmula 6,1 se deduce-. Sé que los puristas se tirarán de los pelos por ello pero
está hecho a propósito. Las expresiones que van siendo necesarias en distintas partes se ponen en todas
ellas y cuando no se ponen es por un motivo. La razón es que hay algunas expresiones que uno tiene
que tener en la cabeza y si no están ah́ı entonces hay que buscarlas. Una pequeña incomodidad agudiza
el ingenio y la memoria. Además, yo siempre he disfrutado de ir de adelante a atrás y viceversa en un
texto.
Pues eso, el texto acaba justo tras deducir las ecuaciones de Einstein. Pero en un futuro no
determinado vendrá con más y mejor información. Palabra de gato.
10 CAPÍTULO 1. INTRODUCCIÓN
1.3. ¿Ejercicios?
No, no he puesto ningún ejercicio, lo siento. Ya sabéis, la falta de tiempo y las prisas y todo lo
que ya os he contado en las ĺıneas anteriores. Eso śı, todo el libro este se puede considerar como un
ejercicio.
Seŕıa deseable y muy beneficioso para los que se acerquen a este texto que intentaran seguir las
explicaciones con lápiz y papel. Con ese lápiz y ese papel seŕıa genial que se pudieran reproducir todos
los resultados que aqúı he puesto.
Al principio, sobre todo cuando se empiezan a jugar con los ı́ndices de los tensores, hay cálculos
explicados paso a paso. Conforme el texto avanza los cálculos se dejan indicados. ¿Quién soy yo para
privar al potencial lector de deducir una fórmula?
1.4. Errores tipográficos, ortográficos y conceptuales
Si encuentras algún error o fallo de cualquier tipo no te concedas mucho mérito. Estoy seguro de
que dada mi precipitación al escribir y al publicar se me han pasado por alto muchos errores y fallos
de todo tipo.
Eso śı, no tengas ningún empacho en mostrarme los errores. Para hacerlo más ágil, convendremos
en que me enviáis un mail con la cabecera - Fallo gordo en Relatividad General - a:
cuentos.cuanticos@gmail.com
Por supuesto, también acepto cŕıticas ácidas y mordaces. Pero si tienes algo bonito que decir
tampoco te cortes.
1.5. ¿CUÁNDO HABRÁ MÁS? 11
1.5. ¿Cuándo habrá más?
Si ya estás impaciente por leer nuevas versiones solo te puedo decir que las nuevas versiones del
texto irán apareciendo conforme vayan apareciendo. Lo que es seguro es que aparecerán cuando estén.
Y casi seguro estarán en algún momento.
¿No sé si me he explicado?
Parte Matemática
Variedades diferenciales
Caṕıtulo 2
Pinceladas de topoloǵıa
En este primer caṕıtulo vamos a hablar de topoloǵıa. Podŕıamos decir que la topoloǵıa es la parte
de la matemática que se ocupa de la continuidad de las funciones definidas entre distintos conjuntos.
No nos convertiremos en expertos topólogos pero necesitamos algunas nociones simples para lo que
viene.
2.1. Espacio topológico
Vamos a asumir que tenemos un conjuntoX y que todos tenemos una idea más o menos aproximada
de qué significa conjunto. El conjunto estará formado por una colección de elementos de los que
podremos decidir si pertenecen o no al conjunto X, es decir, tendremos clara las relaciones x ∈ X,
x /∈ X. Aqúı trabajaremos con conjuntos de infinitos elementos que usualmente llamaremos puntos.
Por ejemplo, el espaciotiempo será el conjunto de todos los posibles puntos espaciotemporales.
Por otro lado, dado un conjunto X podemos seleccionar algunos elementos que satisfagan alguna
15
16 CAPÍTULO 2. PINCELADAS DE TOPOLOGÍA
propiedad y definir por tanto un conjunto restringido a partir de X, es decir, podemos hablar de
subconjuntos de X.
¿Qué es una topoloǵıa? Ahora nos proponemos dar la definición de topoloǵıa y como tal definición
no hay que entenderla. Las definiciones no se entienden, las aceptamos, las asumimos y trabajamos
con ellas siempre y cuando no se deduzca de las mismas alguna conclusión que sea inconsistente con
las definiciones establecidas.
Definición: Espacio Topológico
Dado un conjunto, X, diremos que T es una topoloǵıa de X si:
1. T es una colección de subconjuntos de X. T = {Uα}, donde Uα ⊂ X para todo α que toma
valores en un conjunto de ı́ndices.
2. ∅ y X son elementos de T.
3. Uα ∈ T⇒
⋃
α
Uα ∈ T.
4. Para un número finito de subconjuntos de X, {Ui}ni=1 ∈ T⇒
⋂
i
Ui ∈ T.
La definición lo que nos dice es que podemos parchear el conjunto X con subconjuntos. Aśı que
hacemos una colección de subconjuntos, incluyendo el conjunto total y el vaćıo, y diremos que es una
topoloǵıa si cumple dos propiedades importantes. Primero, la unión arbitraria de parches nos devuelve
un subconjunto que está contenido en la colección inicial. Y segundo, la intersección finita de parches
seguro que nos devuelve a su vez un subconjunto contenido en la colección T. Como está feo llamar
parche a un subconjunto en matemática se emplea la palabra abierto. Aśı que los elementos de una
topoloǵıa T se denominan abiertos de la topoloǵıa.
Si un conjunto X tiene asignada una topoloǵıa, es decir, existe una colección de abiertos T que
verifica la definición, diremos que es un espacio topológico. De hecho, siendo estrictos, el espacio
2.1. ESPACIO TOPOLÓGICO 17
topológico es el par (X,T), pero generalmente la topoloǵıa será conocida y no seremos tan estrictos. Por
supuesto, un mismo espacio puede acomodar distintas topoloǵıas, distintas colecciones de subconjuntos
que verifiquen la definición, no dudes en recurrir a la bibliograf́ıa para obtener más detalles.
Una cuestión importante es que para todo x ∈ X existe un abierto de la topoloǵıa que lo contiene
x ∈ U ⊆ X. Diremos entonces que U es un entorno de x ∈ X. Esto nos permite pensar en que los
puntos contenidos en U son cercanos a x aunque no tengamos ninguna noción de distancia definida
en el espacio X.
Figura 2.1: U es el entorno del punto x ∈ X en la topoloǵıa definida sobre el conjunto.
Hay un tipo de espacios en los que estamos interesados, son los espacios separables o Hausdorff.
Sin entrar en detalle, diremos que un espacio es de Hausdorff cuando dados dos puntos del espacio X
siempre podemos encontrar dos abiertos de la topoloǵıa cuyaintersección es vaćıa. En cierto sentido,
eso nos permite aislar o separa los puntos del espacio. Aunque esta condición nos parezca muy natural
no hay problema alguno en definir espacios en los que no se cumple, recomiendo a los interesados
buscar ejemplos de espacios no separables.
18 CAPÍTULO 2. PINCELADAS DE TOPOLOGÍA
Figura 2.2: Ejemplo de espacio Hausdorff
2.2. Funciones continuas
El concepto de continuidad de funciones tiene su expresión más básica y más fundamental en
topoloǵıa. Hablando con toda la falta de rigor del mundo podemos decir que una función continua es
aquella que env́ıa puntos cercanos a puntos cercanos. Como acabamos de ver la relación de cercańıa
en topoloǵıa se resuelve, sin ayuda de distancias definidas, con los entornos de puntos del espacio en
el que estemos trabajando. Por tanto, podemos concluir que una función será continua en el sentido
topológico si aplica entornos abiertos de puntos a entornos abiertos de puntos.
Seamos ahora un poco más precisos. Disponemos de X e Y , sendos espacios topológicos. Tenemos
definida una función f : X → Y . Dado un punto x ∈ X, la función f le asociará un punto y = f(x)
en el espacio Y . Aśı, si aplicamos f sobre un entorno U de x ∈ X su imagen en Y será f(U).
Figura 2.3: Acción de f
2.3. HOMEOMORFISMOS 19
Diremos que la función f es continua si para cada abierto V en la topoloǵıa de Y se cumple que
f−1(V ) es un elemento de la topoloǵıa de X. Es decir, si la imagen inversa de un abierto siempre es
un abierto, cada uno en su topoloǵıa.
Es esencial notar que aunque se escriba f−1 esto no hace referencia a la inversa de la función (que
no sabemos si es invertible o no, no sabemos si es inyectiva y sobreyectiva). A f−1 se la denomina en
este contexto imagen inversa y se define por:
f−1(V ) = {x ∈ X : f(x) ∈ V ⊂ Y }
Como comentario final de esta sección, me gustaŕıa resaltar el hecho de que esta definición de
continuidad en topoloǵıa es equivalente a la definición � − δ usual cuando trabajamos con funciones
f : Rn → Rm.
2.3. Homeomorfismos
Trataremos ahora de dar la idea de cuando dos espacios topológicos pueden ser considerados
equivalentes. Esta equivalencia se expresará a través de un una aplicación entre ambos espacios y
su inversa de forma que se preserven las topoloǵıas de los mismos. Ya hemos encontrado que las
aplicaciones continuas son aquellas que relacionan los abiertos del espacio de llegada con abiertos del
espacio de partida, por lo tanto son ellas las que preservan la estructura topológica.
Diremos que una función entre dos espacios topológicos f : X → Y es un homeomorfismo si cumple
que es una biyección y que tanto ella como su inversa son continuas. En este caso, f es invertible y
tiene sentido pensar en f−1 como la función inversa asociada.
20 CAPÍTULO 2. PINCELADAS DE TOPOLOGÍA
Caṕıtulo 3
Cartas, Atlas y Variedades
Diferenciales
Hasta ahora hemos trabajados con espacios topológicos (X,T). En estos espacios no tenemos aún la
suficiente estructura matemática como para poder hacer f́ısica en ellos. Un punto x ∈ X es una entidad
abstracta, pero para poder hacer f́ısica hemos de ser capaces de dar coordenadas a los puntos. Además,
hemos de saber cómo hacer derivadas, como definir vectores, como definir distancias y ángulos, etc.
El objetivo de este caṕıtulo es el de aumentar la estructura de un espacio topológico para que esas
esperanzas se puedan hacer realidad.
Para empezar definiremos una variedad M como un espacio topológico que es de tipo Hausdorff y
que no se puede considerar unión de dos piezas disjuntas.
21
22 CAPÍTULO 3. CARTAS, ATLAS Y VARIEDADES DIFERENCIALES
3.1. Cartas coordenadas
Dada una variedad M se dice que el par (U,ϕ) es una carta coordenada n-dimensional cuando U
es un abierto de M (elemento de su topoloǵıa) y ϕ es un homeomorfismo de U en un abierto de Rn.
ϕ : U ⊆M → Rn
Figura 3.1: Carta coordenada
Este punto es importante ya que a través de la carta podemos considerar un abierto de M como
un espacio Rn y aplicar todo lo que sabemos hacer en esos espacios en la propia variedad. En este caso
diremos que estamos trabajando con una variedad real de dimensión n. Estas cartas matemáticas es
lo que en f́ısica denominamos sistemas de coordenadas.
Al trabajar en Rn asociamos a cada punto una n-tupla de valores (x1, x2, . . . , xn). Cuando estamos
tratando con una variedad y queremos describir uno de sus puntos, p ∈ M , hemos de emplear una
carta y aśı tendremos ϕ(p) ∈ Rn. Es decir,
ϕ(p) = (ϕ1(p), ϕ2(p), . . . , ϕn(p)).
Aśı que cuando hablemos de las coordenadas de un punto de la variedad escribiremos xa, donde
a = 1, 2, . . . , n es un ı́ndice que nos indica la coordenada en cuestión, pero tendremos en mente que
3.1. CARTAS COORDENADAS 23
eso solo es posible gracias a la existencia de la carta que nos permite ir de un abierto de M a Rn.
Un detalle crucial en lo que sigue es que en general no podemos cubrir toda la variedad M con una
carta, de ser aśı M seŕıa esencialmente Rn. Pero no todos los espacios son homeomorfos a un espacio
eucĺıdeo. ¿Has probado a envolver una pelota con solo una hoja de papel?
Este proceso de asignar una aplicación que nos lleve de un abierto de M a Rn lo podemos extender
a cualquier abierto de la variedad. La cosa se pone interesante cuando tenemos dos cartas (U1, ϕ1) y
(U2, ϕ2) tales que los abiertos no son disjuntos, es decir, U1 ∩ U2 6= ∅. En la región de intersección
podemos llevar los puntos a través de ϕ1 a través de ϕ2.
En este caso podemos definir las funciones de transición
ϕ2 ◦ ϕ−11 : ϕ1(U1 ∩ U2) ⊂ Rn → ϕ2(U1 ∩ U2) ⊂ Rn
Como ejercicio, completa el siguiente dibujo identificando los abiertos, y las funciones con sus
respectivas composiciones:
Desde el punto de vista f́ısico es muy importante tener claro que lo que acabamos de aprender es
24 CAPÍTULO 3. CARTAS, ATLAS Y VARIEDADES DIFERENCIALES
a cambiar de coordenadas. Si lo pensamos bien, lo que estamos diciendo es que hay dos descripciones
de los mismos puntos de la variedad M , donde los abiertos de las cartas tienen intersección, y que
le asignamos diferentes coordenadas a los mismos según los expresemos con una carta o la otra. Las
funciones de transición son esenciales para entender como se han de expresar unas coordenadas en
función de las otras y viceversa.
3.2. Atlas y Variedades Diferenciales
Una vez que hemos visto las cartas el siguiente paso es evidente, formemos un atlas. Un atlas de
dimensión n en la variedad M es una familia de cartas (Ua, ϕa)a∈I , es decir que a toma valores en un
conjunto de ı́ndices I, un contador vamos, de tal forma que:
Se cumple que M =
⋃
a∈I
Ua
Cada función de transición ϕa ◦ϕ−1b es una función continua con infinitas derivadas continuas. A
este tipo de funciones las denominaremos suaves o de tipo C∞. Recordemos que estas funciones
de transición son funciones en Rn donde tenemos todas las herramientas necesarias para saber
si una función es derivable infinitas veces y si cada derivada es continua.
Aqúı debeŕıamos de interesarnos por el concepto de atlas maximal, aquel atlas que contiene todos
los abiertos posibles definidos en M y todas las biyecciones entre los abiertos de M y los abiertos
de Rn cuyas funciones de transición son suaves. El concepto es simple pero su construcción es ardua
cuanto menos, aśı que asumiremos que siempre trabajamos con este tipo de atlas.
Y llegados a este punto podemos dar la definición de variedad diferenciable.
Definición: Variedad Diferencial
3.3. FUNCIONES ENTRE VARIEDADES 25
Si en un espacio topológico M que es conexo y Hausdorff construimos un atlas maximal habremos
definido una estructura diferenciable sobre M y diremos que M es una variedad diferencial.
Dado que todas las variedades con las que vamos a trabajar son variedades diferenciales las deno-
minaremos simplemente como variedades sin posibilidad de confusión.
3.3. Funciones entrevariedades
Imaginemos ahora que tenemos dos variedades, M y N . Ambas tienen asociada una estructura
diferencial. Las dimensiones de dichas variedades no han de coincidir, por ejemplo supongamos que la
variedad M es m-dimensional y la variedad N es n-dimensional. Eso quiere decir que las cartas de M
van a Rm y las de N van a Rn. Si ahora definimos una función f : M → N , ¿cómo podemos decidir
si esta función es suave o no lo es?
La cuestión se resuelve fácilmente si nos vamos a los espacios en los que śı sabemos responder esa
pregunta. Aśı que empleemos las cartas como en la figura 3.2.
Gracias a las cartas podemos traducir en cierto sentido la función entre las variedades a funciones
entre Rm y Rn, para ello construimos, observa la figura 3.3, el representante local de la función:
ψ ◦ f ◦ ϕ−1 : ϕ(U) ⊂ Rm → ψ(V ) ⊂ Rn
Dado que ya disponemos de una función entre espacios del tipo Rn podremos decidir si la función
es suave o no lo es. La función será suave si para todas las cartas de M y N su representante local
es C∞ en el sentido del análisis de varias variables. En realidad, basta mostrar que ese es el caso
26 CAPÍTULO 3. CARTAS, ATLAS Y VARIEDADES DIFERENCIALES
Figura 3.2: Empleando las cartas
Figura 3.3: Representante local
para una pareja de cartas de ambas variedades para poder afirmar que la función es suave debido a la
estructura diferencial inherente a una variedad diferencial. Es un buen ejercicio convencerse de esta
afirmación.
Una función f : M → N se llama difeomorfismo entre las variedades si es una biyección y tanto
ella como su inversa son suaves. Por lo tanto, las variedades que admiten difeomorfismos entre ellas
se llaman difeomorfas ya que sus estructuras diferenciales son idénticas.
Evidentemente siempre podemos definir difeomorfimos de una variedad M en ella misma. El con-
junto de todos los difeomorfismos de una variedad conforma un grupo denotado por Diff(M). La
3.3. FUNCIONES ENTRE VARIEDADES 27
comprobación de que los difeomorfismos de una variedad forman grupo es directa.
28 CAPÍTULO 3. CARTAS, ATLAS Y VARIEDADES DIFERENCIALES
Caṕıtulo 4
Vectores y Espacios Tangentes
Una variedad M tiene dos estructuras definidas, una topoloǵıa y una estructura diferencial. Sin
embargo, no hay ninguna estructura vectorial asociada y eso supone un problema porque necesitamos
vectores para hacer f́ısica. Nuestro trabajo en esta sección es estudiar si es posible definir vectores en
una variedad. Como veremos, hay una construcción muy bella que lo permite y que es consistente con
una interpretación más operativa.
Antes de entrar de lleno en el tema que nos ocupa vamos a definir curvas en variedades.
4.1. Curvas en Variedades
Se llamará curva en la variedad M a una aplicación suave γ : R→ M que asigna a cada valor en
λ ∈ R, o en un intervalo abierto del mismo, un punto en la variedad dado por γ(λ).
Es importante señalar que la curva es la aplicación γ no el camino de puntos señalados en la
variedad.
29
30 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
Podemos decir que hay dos curvas tangentes entre ellas en el punto p de la variedad si se cumple:
γ1(0) = γ2(0) = p
En una carta coordenada de M las curvas han de ser tangentes en el sentido de Rn
La primera condición establece que las dos curvas toman el mismo valor solo en un punto. Por
simplicidad se ha elegido que dicho punto corresponda al valor cero del parámetro λ.
La segunda condición hace uso de las cartas definidas sobre la variedad M . Con ello podemos llevar
la curva a Rn asociando a los puntos γ(λ) de la variedad puntos en Rn del tipo xµ(γ(λ)).
4.1. CURVAS EN VARIEDADES 31
El representante local de la curva en Rn toma la forma:
ϕ ◦ γ : R→ Rn
Aśı podemos definir la siguiente derivada de la forma usual:
d
dλ
(ϕ ◦ γ(λ))
Esta notación es formal pero emplearemos una notación más operativa y más popular en los textos
de f́ısica:
d
dλ
(ϕ ◦ γ(λ)) = dx
µ(γ(λ))
dλ
Aśı que lo que indica la segunda condición no es más que una relación entre las derivadas a las
curvas en el punto correspondiente a λ = 0:
dxµ(γ1(λ))
dλ
|λ=0 =
dxµ(γ2(λ))
dλ
|λ=0
32 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
Esta expresión, gracias al carácter C∞ de todas las funciones empleadas y a la estructura diferencial
inherente a la variedad, es válida en cualquier sistema de coordenadas.
4.2. Vector tangente a M en el punto p - Definición geométrica
Gracias a la construcción anterior podemos dar una noción de vector tangente a la variedad en
uno de sus puntos.
Un vector tangente en p ∈M es una clase de equivalencia de curvas en M tales que la relación de
equivalencia es la de ser dos curvas que sean tangentes entre śı en el punto p.
v = [γ]
Definir aśı los vectores tangentes a una variedad en un punto puede parecer abstracto y poco
operativo. Ciertamente, aśı es. Sin embargo, hay un punto clave en esta forma de definir los vectores
tangentes, tan solo se hace uso de elementos propios de la variedad y de funciones definidas sobre y en
ella. Es decir, el concepto de vector tangente a la variedad en un punto es intŕınseco a la variedad. No
necesitamos pensar en nuestra variedad como encerrada en un espacio de dimensión superior donde
śı están definidos los vectores de manera usual, la variedad es todo lo que necesitamos.
Vamos a demostrar un teorema.
Teorema: El espacio de todo los vectores tangentes a la variedad M en el punto p forman un
espacio vectorial.
Demostración:
Tenemos una variedad M y en ella tenemos una carta (U,ϕ), el punto p ∈ U ⊂M la aplicación ϕ
env́ıa a p al punto ~0 ∈ Rn.
4.2. VECTOR TANGENTE A M EN EL PUNTO P - DEFINICIÓN GEOMÉTRICA 33
Tenemos dos clases de equivalencia de curvas diferentes, [γ1] y [γ2]. Tomamos como representantes
de cada clase de equivalencia las curvas γ1 y γ2. Sin pérdida de generalidad elegimos las curvas de tal
forma que se cumpla γ1(0) = γ2(0) = p. Y sus imágenes por la carta vienen dadas por ϕ ◦ γ1(λ) y
ϕ ◦ γ2(λ) respectivamente.
Es evidente que γ1 +γ2 no tiene sentido en M . Pero podemos aprovechar los representantes locales
para efectuar una suma en Rn:
(ϕ ◦ γ1(λ)) + (ϕ ◦ γ2(λ)),
esto está bien definido y es una nueva curva en Rn.
Es inmediato encontrar que esta nueva curva también pasa por ~0 ∈ Rn cuando el parámetro λ = 0.
Aprovechando que ϕ−1 está definida por la propia definición de variedad, podemos llevar esta
curva de Rn a la variedad M :
λ 7→ ϕ−1 ◦ (ϕ ◦ γ1(λ)) + (ϕ ◦ γ2(λ))
Esta curva en M pasa por p ∈M para λ = 0.
Aśı podemos concluir que siendo v1 = [γ1] y v2 = [γ2] se cumple que:
v1 + v2 := [ϕ
−1 ◦ (ϕ ◦ γ1(λ)) + (ϕ ◦ γ2(λ))]
rv := [ϕ−1 ◦ (rϕ ◦ γ)], para todo r ∈ Rn
Además, esto es independiente de la carta elegida y de los representantes de las clases de equiva-
lencias que definen los vectores.
Desde el punto de vista de Rn las anteriores expresiones toman el siguiente aspecto:
34 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
d
dλ
(xµ(γ1(λ)) + x
µ(γ2(λ)))|λ=0 =
d
dλ
(xµ(γ1(λ)))|λ=0 + ddλ (x
µ(γ2(λ)))|λ=0
d
dλ
(rxµ(γ(λ)))|λ=0 = r
d
dλ
(xµ(γ(λ)))|λ=0
�
Aśı queda demostrado el teorema estableciendo que todos los vectores tangentes a la variedad en
un punto, y esto se puede hace para cualquier punto de la variedad, forman un espacio vectorial.
Acabamos de definir el espacio tangente a la variedad en el punto p que denotaremos por TpM .
4.3. Vector tangente a la variedad M en el punto p - Definición
algebraica
Vamos a proporcionar ahora otra definición de vector tangente a una variedad en uno de sus
puntos. El objetivo ahora es que seamos capaces de llegar a expresiones más adecuadas a la hora de
hacer cálculos reales.
Antes de entrar en el mundo de las variedades vamos a concentrarnos en el mundo familiar de
Rn. En este tipo de espacio hay una relación directa entre vectores tangentes a curvas y derivadas
direccionales.
Un punto de Rn vendrá dado por sus coordenadas (x1, . . . , xn) que denotaremos por xµ.Si tenemos
un vector dado por sus componentes en Rn, v = (v1, . . . , vn). Dada una función f : Rn → R la derivada
direccional en la dirección indicada por el vector v viene dada por:
vf = v1
∂f
∂x1
+ v2
∂f
∂x2
+ · · ·+ vn ∂f
∂xn
Evidentemente esto se puede escribir como un sumatorio:
4.3. VECTOR TANGENTE A LA VARIEDADM EN EL PUNTO P - DEFINICIÓN ALGEBRAICA35
vf =
∑
µ
vµ
∂f
∂xµ
Y aqúı recurriremos a una genialidad de Albert Einstein, tal vez no es espectacular pero simplifica
la vida, que no es poco. La expresión anterior se escribirá como:
vf = vµ
∂f
∂xµ
Y aśı llegamos al convenio de suma de Einstein, cada vez que enfrentemos objetos con ı́ndices arriba
con objetos con ı́ndices abajo repetidos entenderemos que hay que hacer la suma de los productos de
esos objetos para cada valor de los ı́ndices.
Para simplificar aún más este tipo de expresiones las derivadas parciales
∂f
∂xµ
se escriben simple-
mente como ∂µ. Tras esta revisión de la notación las derivadas direccionales de funciones quedan:
vf = vµ∂µf
Ahora bien, como esta expresión es válida independientemente de la función que elijamos para
calcular la derivada direccional podemos considerar que el vector se puede entender como el siguiente
operador:
v = vµ∂µ
Con una simple inspección visual podemos identificar {∂µ} como la base en la que expresamos
los vectores, entendidos como operadores de derivación. Por este motivo, dado que hay n derivadas
independientes, una por cada coordenada de Rn, el espacio vectorial que se obtiene a partir de esa
base, adaptada a las coordenadas, es de dimensión n.
36 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
Volvamos ahora a nuestra variedad M. Intentaremos encontrar de algún modo como identificar los
vectores tangentes a la variedad en un punto con derivadas direccionales de funciones.
Para lo que sigue es bueno tener organizados los ingredientes indispensables:
1. Tenemos una variedad M de n dimensiones.
2. En esa variedad definimos una de sus cartas con el par (U,ϕ) donde ϕ : M → Rn.
3. Trabajaremos con una curva en la variedad, la función γ : R→M .
4. También usaremos una función suave f : M → R.
Empezaremos definiendo la curva γ(λ) en la variedad M
A través de la carta podemos llevar la curva a Rn:
(ϕ ◦ γ)(λ)
En esa situación, como ya hemos visto, se puede calcular la tangente a la curva en cada uno de
sus puntos mediante la derivada respecto a λ:
4.3. VECTOR TANGENTE A LA VARIEDADM EN EL PUNTO P - DEFINICIÓN ALGEBRAICA37
d
dλ
(ϕ ◦ γ)
Pero, ya sabéis, con la notación simplificada:
d
dλ
(ϕ ◦ γ) = dx
n
dλ
(γ(λ))
Que,sinceramente, acostumbramos a escribir tan solo como
dxµ
dλ
. El hecho de que se derive respecto
a λ aclara que estamos derivando sobre una curva.
Si tenemos una función f : M → R que queremos derivar a lo largo de la curva γ, es decir, hacer
la derivada direccional, tenemos una situación complicada:
Ciertamente es complicado imaginar cómo hacer la derivada direccional a lo largo de la curva γ.
Pero es fácil que nos demos cuenta que la derivada
df
dλ
,
38 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
está bien definida si consideramos que eso indica que hemos derivar (f ◦ γ) que es una función de R
en R.
Aśı que la siguiente derivada tiene sentido:
df
dλ
=
d(f ◦ γ)
dλ
Aún tenemos un problema, ah́ı no aparecen vectores ni derivadas direccionales por ningún sitio.
Claro, eso está asociado a trabajar en Rn. ¿Podemos expresar esa derivada en Rn?
4.3. VECTOR TANGENTE A LA VARIEDADM EN EL PUNTO P - DEFINICIÓN ALGEBRAICA39
Observa esta figura:
Hay un detalle que hemos de considerar, si efectuamos la composición de la aplicación de la carta
y su inversa obtenemos una identidad. Es como no hacer nada.
ϕ ◦ ϕ−1 = ϕ−1 ◦ ϕ = I
Y aqúı viene la magia de la matemática. Transformemos la expresión (f ◦γ) con una identidad, no
queremos perturbar esa función para nada. La cosa quedaŕıa (f ◦ ϕ−1 ◦ ϕ ◦ γ). En realidad no hemos
hecho nada, pero hemos hecho mucho. Gracias a la propiedad asociativa esto se puede escribir como:
f ◦ γ = (f ◦ ϕ−1 ◦ ϕ ◦ γ) = (f ◦ ϕ−1) ◦ (ϕ ◦ γ)
Ahora śı, ahora tenemos una función que va de R a R pero pasando por Rn. De hecho, desde este
punto de vista podemos escribir la derivada anterior del siguiente modo:
40 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
df
dλ
=
d
dλ
(f ◦ ϕ)
=
d
dλ
[
(f ◦ ϕ−1) ◦ (ϕ ◦ γ)
]
=
d(ϕ ◦ γ)
dλ
∂(f ◦ ϕ−1)
∂xµ
=
dxµ
dλ
∂µf
Tan solo hemos tenido que tirar de la regla de la cadena para llegar a ese resultado. Y śı, ah́ı tenemos
el vector tangente a la curva y actuando como derivación sobre la función. ¡Lo hemos conseguido!
df
dλ
=
dxµ
dλ
∂µf
Podemos concluir entonces que cualquier vector v ∈ TpM puede ser identificado con una derivada
direccional.
Es cierto que podŕıas objetar que hemos trabajado con una curva y no con vectores tangentes
pero entonces no tendŕıas en la cabeza la primera caracterización de dichos vectores que justamente se
construyen a partir de curvas en la variedad. Lo que hemos hecho, tal vez no de la forma más formal
posible, es mostrar que las clases de equivalencia de curvas que definen los vectores v ∈ TpM actúan
como operadores de derivación sobre funciones.
Aśı, que llegamos a una de las primeras expresiones a grabar en la cabeza en este tema. Un vector
tangente en un punto es un objeto que toma una función en la variedad y devuelve un número y su
definición es:
v = vµ∂µ
Aśı, vf = vµ∂µf
4.3. VECTOR TANGENTE A LA VARIEDADM EN EL PUNTO P - DEFINICIÓN ALGEBRAICA41
Para convencernos de que estamos trabajando con operadores de derivación de pleno derecho que
además conforman un espacio vectorial seŕıa muy recomendable, como ejercicio, comprobar que los
vectores tangentes a la variedad en un punto tienen las siguientes propiedades al actuar sobre funciones:
1. v(f + g) = vf + vg
2. v(rf) = rvf,
3. v(fg) = f(p)v(g) + g(p)v(f)
4. (v1 + v2)f = v1f + v2f
5. (rv)f = rvf
Aqúı v1, V2, V ∈ TpM , f, g son funciones suaves de la variedad en R y r ∈ R.
Las dos primeras propiedades nos indican que los vectores actúan sobre funciones linealmente, al
fin y al cabo son derivadas. Que sean derivadas u operadores de derivación se ve claramente en la
tercera propiedad que es conocida como la regla de Leibniz, ya sabéis, la derivada de la primera por
la segunda sin derivar, etc. Esa propiedad caracteriza a los objetos matemáticos que actúan como
derivadas en algún sentido. Y las dos últimas condiciones muestran, de nuevo, que conforman un
espacio vectorial.
Me gustaŕıa insistir en que aqúı no hemos probado formalmente de forma completa la equivalencia
de las definiciones de vectores tangentes a una variedad en un punto. Simplemente se ha indicado que
tiene toda la pinta de poderse probar, de hecho se puede y cualquiera con interés puede ver la hermosa
y alambicada construcción en la que se basa la demostración formal.
Aśı que dada una carta (U,ϕ) en una variedad M tenemos de forma natural definida una base en
cualquier TpM de todos los puntos p ∈ U ⊂M . Esta es la base adaptada a las coordenadas que viene
dada por las parciales respecto de cada una de las coordenadas que establece la carta, {∂µ}.
42 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
La dimensión por tanto de cualquier TpM asociado a un punto de la variedad es n. La variedad y
cualquiera de sus espacios tangentes en cualquiera de sus puntos tienen la misma dimensión.
Piensa lo que sigue, hemos ampliado la estructura de una variedad. Ahora, además de la estructura
diferenciable la variedad tiene asociado de manera natural un espacio tangente, un espacio vectorial,
en cada punto de la misma.
4.4. Campos vectoriales
Hasta ahora hemos trabajado anclados a un punto p de la variedad M . Pero en M quedan infinitos
puntos por ah́ı que explorar. Lo que está claro es que en un punto p podremos definir el espacio tangente
en dicho punto TpM y en un punto q tendremos el espacio tangente TqM. De hecho, podemos definir
el TM como el espacio resultante al hacer la unión de todos los espacios tangentes de todos los puntos
de la variedad
TM =
⋃
p∈M
TpM
4.4. CAMPOS VECTORIALES 43
Pensemos que desde el punto de vista algebraico TpM y TqM son isomorfos. Pero hay un detallito
incómodo en esta historia, los espacios tangentes definidos en puntos diferentes de una variedad no se
pueden comparar entre śı. No hay ninguna manera definida de llevar un vector en el TpM a TqM . En
Rn sabemos trasladar vectores, lo hacemos siguiendo un traslado paralelo, podemos tomar cualquier
vector y anclarlo a cualquier punto de Rn. Por desgracia, en una variedad M no hay noción definida de
paralelismo y por lo tanto no tenemos capacidad de comparar vectores de espacios tangentes asociados
a puntos distintos. Aśı que lo que acabamos de exponer aqúı se puede definir en: Los espacios tangentes
asociados a distintos puntos de una variedad son isomorfos pero distintos. Lo cual no deja de ser irónico.
En breve veremos como domar este indómito problema.
Pero mientras vamos pensando sobre la problemática que os acabo de descubrir también es bueno
pensar en como definir campos vectoriales en una variedad M .
La cuestión es simple, tomamos TM , la unión de todos los espacios tangentes de cada punto de la
variedad, y hacemos una asignación continua y suave de un vector tangente en cada punto.
Espero que te hayan saltado todas las alarmas con lo que acabas de leer. Asignar un vector a cada
punto está bien, basta con elegir un vector de cada TpM . ¿Pero como demonios vamos a hacer una
asignación suave si no podemos comparar vectores de espacios tangentes asociados a distintos puntos
de la variedad?
Ese es un punto caliente, śı.
La verdad es que śı que hay una forma para definir una asignación suave de vectores en cada punto
de la variedad para formar un campo vectorial. El punto clave es notar que para una función suave
f : M → R tenemos que V |pf es un número real. Por lo tanto, un campo vectorial nos daŕıa un
número en cada punto de la variedad. Dicho de otra forma, si el campo vectorial es V , V f es una
función de la variedad M en R. Convendremos en que el campo vectorial es suave si la función que
44 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
define es suave.
Hay una forma trivial de construir un campo vectorial nuevo a partir de dos campos V y W . El
nuevo campo vectorial aparece como resultado de aplicar el corchete de Lie o conmutador entre ambos
campos vectoriales.
El corchete de Lie, [,̇]̇ es un operador bilineal que actúa del siguiente modo:
[V,W ]f = V (Wf)−W (V f)
El nuevo campo vectorial es: u = [V,W ] = VW −WV
Para demostrar que esto se comporta como un campo vectorial hay que comprobar que actúa como
un operador de derivación:
u(fg) = (VW −WV )(fg) = u(f)g + fU(g)
Lo que mide el conmutador [V,W ] es el grado en el que dos derivadas direccionales mixtas no
4.4. CAMPOS VECTORIALES 45
conmutan.
Como es bien conocido, la base natural coordenada de los campos vectoriales, {∂µ} conmutan entre
śı.
Este es un hecho genérico, en cualquier base vectorial adaptada a las coordenadas que se empleen
en cada caso sus elementos conmutan entre śı. Este hecho nos será útil alguna vez.
46 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
4.5. Un vector expresado en dos cartas - Transformación de
coordenadas
Supongamos que tenemos un campo vectorial definido en una región de una variedad M . Supon-
gamos que tenemos dos cartas cuyos abiertos abarcan esa región, (U,ϕ) y (U ′, ψ) tales que U ∩U ′ 6= ∅.
El vector v es un objeto geométrico que ha sido definido de forma independiente de las cartas de
la variedad. El vector es el vector.
Sin embargo, su expresión dependerá de la carta elegida para describirlo.
La carta ϕ definirá las coordenadas xµ y la base asociada será ∂µ.
Por su parte, la carta ψ definirá las coordenadas xµ
′
y la base asociada será ∂µ′ .
En la zona de intersección ha de ser posible expresar unas coordenadas en función de las otras,
xµ = xµ(x). Aśı podemos deducir como se expresa una base en función de la otra, en las distintas
coordenadas. Eso, si recordamos el álgebra lineal, se hace mediante una matriz de cambio de base que
en este caso toma la forma:
4.5. UN VECTOR EXPRESADO EN DOS CARTAS - TRANSFORMACIÓN DE COORDENADAS47
∂
∂xµ′
=
∂xµ
∂xµ′
∂
∂xµ
Nosotros utilizaremos la notación:
∂µ′ =
∂xµ
∂xµ′
∂xµ
Esta es la ley de transformación de las bases vectoriales naturales bajo la transformación de
coordenadas.
Aprovechando que hemos determinado esta ley de transformación podemos deducir la transforma-
ción que se produce en las componentes de los vectores.
Para conseguir eso hemos de insistir en el hecho que hemos establecido antes, el vector es el vector,
da igual su expresión en una carta u otra:
v = vµ∂µ = v
µ′∂µ′
Como sabemos como se transforman las bases podemos establecer que:
vµ∂µ = v
µ′ ∂x
µ
∂xµ′
∂µ
Por lo tanto acabamos con la relación para las componentes:
vµ = vµ
′ ∂xµ
∂xµ′
Dado que
∂xµ
∂xµ′
es una matriz de cambio de base es invertible. La inversa no es más que
∂xµ
′
∂xµ
Concluyendo:
48 CAPÍTULO 4. VECTORES Y ESPACIOS TANGENTES
vµ
′
=
∂xµ
′
∂xµ
vµ
Hemos de apreciar que las componentes del vector se transforman de forma inversa que la base.
Este hecho hay que mantenerlo en mente, los objetos con ı́ndices arriba se transforman de forma
inversa a los objetos con ı́ndices abajo.
4.6. Índices mudos
Hemos definido y empleado el criterio de suma de Einstein en expresiones del tipo:
vµ∂µ
Se suele decir que el ı́ndice µ está contráıdo en la expresión y que es un ı́ndice mudo. Los ı́ndices
mudos se pueden cambiar alegremente siempre que lo hagamos por igual en las expresiones en las que
están contráıdos:
vµ∂µ = v
ν∂ρ∂ρ
Esta regla aplica en todas las expresiones con ı́ndices.
Cuando veamos ecuaciones tensoriales hemos de estar seguros de que todos los ı́ndices que no son
mudos, los que no están contráıdos, están en las mismas posiciones a ambos lados de la igualdad de la
ecuación. Guardad este consejo en la memoria, nos simplificará mucho la vida en el futuro próximo.
Caṕıtulo 5
Covectores/1-Formas y Espacios
Cotangentes
En cuanto disponemos de un espacio vectorial V existe de forma natural otro espacio vectorial, el
espacio dual, V ∗.
El espacio vectorial dual V ∗ está conformado por las aplicaciones lineales que actúan sobre los
vectores de V y devuelven números reales. Los elementos del espacio vectorial dual se denominan
covectores o 1-formas.
Nosotros hemos establecido que para una variedad M y una p ∈ M existe un espacio vectorial
asociado, el espacio tangente en ese punto, TpM . Una 1-forma o covector ω en el punto p es una
aplicación lineal definida del siguiente modo:
49
50 CAPÍTULO 5. COVECTORES/1-FORMAS Y ESPACIOS COTANGENTES
ω : TpM → R
v 7→ wv
Las aplicaciones lineales conforman un espacio vectorial, por lo tanto, a cada punto p ∈M podemos
asociar también el espacio vectorial de las mismas, el espacio cotangente a la variedad en el punto p,
que denotaremos por T ∗pM . También podemos construir el espacio cotangente de la variedad uniendo
todos los espacios cotangentes de todos los puntos de M :
T ∗M =
⋃
p∈M
T ∗pM
En términos de Rn, dada una carta (U,ϕ) en la variedad, sabemos que las 1-formas/covectores
asociadas a las coordenadas son las diferenciales de las mismas, dxµ. Aśı, por definición de base dual:
dxµ∂ν =
∂xµ
∂xν
= δµν
Una 1-forma/covector general se escribirá:
ω = ωµdx
µ
Bajo cambio de coordenadas podemos deducir, siguiendo la lógica aplicada a los vectores, que:
dxµ
′
=
∂xµ
′
∂xµ
dxµ
ωµ′ =
∂xµ
∂xµ′
ωµ
Como vemos, las 1-formas transforman sus bases y sus componentes de forma inversa a bases y
componentes de vectores respectivamente.
Caṕıtulo 6
Tensores
Los tensores, sin duda alguna, están imbuidos de un halo de misticismo aún entre los propios
estudiantesde f́ısica o matemática. Son objetos con muchos ı́ndices, arriba y abajo, y perdemos la
capacidad para encontrarles algún sentido tangible. Sin embargo, son objetos cotidianos que hemos
manejado desde siempre, al fin y al cabo, vectores y covectores son ejemplos humildes de tensores.
Como vamos a explicar, los tensores, de los que vectores y 1-formas son un caso como hemos dicho,
son objetos geométricos definidos de forma natural en la variedad. Como tales objetos geométricos su
existencia no está ligada o comprometida a ninguna carta, a ningún sistema de coordenadas. Por lo
tanto, al expresar la f́ısica en términos tensoriales conseguimos que las relaciones entre las magnitudes
f́ısicas definidas tensorialmente sean válidas en cualquier sistema de coordenadas. No habrá discusión
al respecto de que este aspecto es muy deseable en f́ısica.
¿Qué es un tensor? Un tensor T es una aplicación multilineal que transforma un determinado
número de vectores y covectores en un número real.
51
52 CAPÍTULO 6. TENSORES
T : TpM ⊗ TpM ⊗ · · · ⊗ T ∗pM︸ ︷︷ ︸
r factores
⊗T ∗pM ⊗ · · · ⊗ T ∗pM︸ ︷︷ ︸
s factores
→ R
Eso implica que ese tensor actúa sobre r covectores y s vectores y devuelve un número real. Se
dice entonces que el vector T tiene rango (r, s).
Un tensor se puede expresar en componentes ya que conocemos las bases vectoriales y covectoriales:
T = Tµ1...µrν1...νs∂µ1 ⊗ · · · ⊗ ∂µr ⊗ dx
ν1 ⊗ · · · ⊗ dxνs
A estas alturas es trivial adivinar como se transforman las componentes de un tensor:
T
µ′1...µ
′
r
ν′1...ν
′
s
=
∂xµ
′
1
∂xµ1
· · · ∂x
µ′r
∂xµr
∂xν1
∂xν
′
1
· · · ∂x
νs
∂xν
′
s
Tµ1...µrν1...νs
Hemos dado la definición más básica de tensor pero lo que tomaremos como mantra para determinar
si un objeto matemático es un tensor o no es lo siguiente:
Es tensor lo que se transforma como tensor.
6.1. Operaciones entre tensores
En esta sección, mientras no se diga lo contrario, trabajaremos con tensores del mismo tipo (r, s)
y en un mismo punto de la variedad. Aśı, en algunos casos, denotaremos los tensores por letras en
mayúsculas, T , S, A, B, etc, sin indicar sus ı́ndices. Esto es bueno en śı mismo porque pone de mani-
fiesto que son objetos geométricos que no están comprometidos con ningún sistema de coordenadas.
1. Los tensores son lineales en todos sus argumentos.
6.1. OPERACIONES ENTRE TENSORES 53
2. La composición de tensores del mismo tipo produce un tensor del mismo tipo: T = aA + bB,
donde a, b ∈ R
Con esto queda claro que el espacio de tensores de rango (r, s) en el punto p ∈M , que denotaremos
por T (r,s)p (M), tiene estructura de espacio vectorial.
Simetŕıa de Tensores
Una cuestión de interés es el comportamiento de los tensores al permutar sus ı́ndices entre śı.
Para comenzar a estudiar la simetŕıa de los tensores tomemos un caso simple, un tensor de tipo
(0, 2), Xµν .
Diremos que el tensor es simétrico si cumple: Xµν = Xνµ Por contra, el tensor se dirá antisimétrico
si cumple: Xµν = −Xνµ
Evidentemente podemos tener tensores sin simetŕıa definida. Estos tensores siempre se podrán
escribir como una combinación de una parte simétrica y una parte antisimétrica. Para un tensor Xµν ,
denotaremos su parte simétrica por X(µν) y su parte antisimétrica por X[µν].
Para calcular las partes simétrica y antisimétricas de un tensor de tipo (0, 2) seguiremos las si-
guientes reglas:
X(µν) =
1
2
[Xµν +Xνµ]
X[µν] =
1
2
[Xµν −Xνµ]
Estas reglas se pueden generalizar a cualquier número de ı́ndices, supongamos que tenemos un
tensor Xµ1,...,µp . Su parte simétrica se calculará como:
X(µ1,...,µp) =
1
p!
∑
σ
Xσ(µ1,...,µp),
54 CAPÍTULO 6. TENSORES
es decir, sumando todas las posibles permutaciones de los ı́ndices.
Para la parte antisimétrica hemos de hacer una suma alternada, para ello introduciremos el signo
de la permutación:
X[µ1,...,µp] =
1
p!
∑
σ
sgn(σ)Xσ(µ1,...,µp).
Como ejemplo, X[abc] =
1
6
(Xabc −Xacb +Xcab −Xcba +Xbca −Xbac).
La simetŕıa o antisimetria de un tensor no es algo restringido a la permutación entre todos sus
ı́ndices, podemos perfectamente estudiar la simetŕıa de algún subconjunto de ı́ndices.
Es decir, si para un tensor se cumple que Sµνρ = Sνµρ, diremos que es simétrico respecto de sus
dos primeros ı́ndices. Igualmente, si tenemos que Aµνρ = −Aρνµ, es antisimétrico en el primer y tercer
ı́ndice.
Podemos hacer la misma discusión para tensores con ı́ndice arriba. Lo que no podemos hacer es
permutar ı́ndices arriba con ı́ndices abajo. Eso no tiene sentido porque estaŕıamos moviendo elementos
de las bases de vectores y de las bases de covectores y esas bases digamos que se ignoran dentro de
los tensores.
Contración de ı́ndices
Otra operación interesante para los tensores es la contracción. La operación de contracción la
podemos definir de manera abstracta con el śımbolo Cont y representa una aplicación de los tensores
tipo (r, s) a los tensores de tipo (r − 1, s− 1):
Cont : T (r,s) → T (r−1,s−1)
La forma de realizar la operación es tomar un ı́ndice arriba y un ı́ndice abajo, es decir, seleccionamos
un elemento de la base de vectores y otro de la base de covectores, y forzar a que sean duales entre
6.2. LA VERSATILIDAD TENSORIAL 55
śı, lo que equivale a que tomen los mismos valores. Eso en términos en términos de ı́ndices para un
tensor del tipo Tµνρσγ significa:
Tµνρ σγ 7→ Cont(Tµνρ σγ) = Tµνρ σν
En esa situación tenemos que el tensor T un ı́ndice arriba y un ı́ndice abajo repetidos con lo que
aplica el critero de suma de Einstein. Por lo que el resultado, al sumar sobre todos los valores del
ı́ndice repetido este desaparece, queda:
Tµνρ σγ 7→ Cont(Tµνρ σγ) = Tµνρ σν = Tµρσ
Esta operación puede parecer esotérica pero estoy seguro de que nos hemos enfrentado a ella en
alguna ocasión. Piensa en este tensor T ji que puede ser considerado como una matriz. Ahora hagamos
la única contración posible:
T jj = T,
esto no es más que la traza de la matriz.
Como es de supone la operación de contracción se puede realizar entre cualquier pareja de ı́ndice
arriba y abajo de un tensor por lo que, en general, hay distintas contracciones posibles de un mismo
tensor original. Las contracciones entre diferentes parejas de ı́ndices dan lugar a diferentes tensores
como resultado. Tendremos la oportunidad de ver la contracción en acción más adelante.
6.2. La versatilidad tensorial
Hemos definido un tensor (r, s) de forma general como:
56 CAPÍTULO 6. TENSORES
T : (TpM)
r ⊗ (T ∗pM)s → R
Esto implica que un tensor se come r covectores y s vectores para dar lugar a un número real.
Esto se ve en términos de las coordenadas de la siguiente forma, tomaremos un tensor del tipo Sµρν
para el ejemplo:
SµρνV
ρV νωµ
Eso es un número real. Esta afirmación se puede confirmar fácilmente viendo como se transforma
ese objeto bajo cambio de coordenadas, veréis que no cambia en absoluto, lo que solo ocurre para los
escalares.
Sin embargo, los tensores pueden ser mucho más versátiles que eso.
Tomemos un tensor Tµν y hagamos que solo actúe el ı́ndice inferior. Es decir, solo le enfrentamos
un vector V ν . Como resultado tenemos:
Tµν V
ν = Sµ
Es decir: Tµν : TpM → TpM si solo actuamos con el ı́ndice inferior. Es decir, se comporta como
una aplicación lineal entre espacios vectoriales.
Podŕıamos poner mil y un ejemplos del tipo TµρσS
σ
ρν = U
µ
ν .
Esto será una poderosa herramienta de trabajo.
Caṕıtulo 7
Métrica
En un espacio vectorial V podemos dar la noción de norma de vectores, su longitud, y ángulos
introduciendo una nueva estructura, la estructura métrica.
Para el espacio vectorial más conocido, R3 sabemos que para calcular la longitud de un vector
empleamos el producto interno. Para v, w ∈ R3 el producto interno se expresa en términos de las
componentes como:
v · w = v1w1 + v2w2 + v3w3
La norma del vector se calcula a través de este producto interno como: ||v||2 = v · v
Esto se puede entender comola acción de un tensor de tipo (0, 2) denotado por δ. En términos de
componentes será δ = δijdx
idxj . Por lo que el producto interno se puede entender como la acción de
la métrica sobre pares de vectores:
v · w = δijviwj
57
58 CAPÍTULO 7. MÉTRICA
En coordenadas cartesianas las componentes de esta métrica vienen dadas por diag(1, 1, 1).
En relatividad especial trabajamos en un espacio vectorial de cuatro dimensiones, el espacio de
Minkowski, M4. Este espacio no es más que R4 en el que hemos defnido una métrica η que en términos
de sus componentes ηµν = diag(−1, 1, 1, 1)
Por lo que el producto interno para dos vectores en el espacio de Minkowski viene dado por:
ηµνv
µwν = −v0w0 + v1w1 + v2w2 + v3w3,
donde las componentes de un vector v en el espacio de Minkowski son (v0, v1, v2, v3), siendo v0 la
denominada componente temporal y las tres restantes las componentes espaciales.
Que en la métrica haya una diferencia de signo entre una de sus componentes respecto de las otras
es lo que hace que los resultados de la relatividad especial se alejen de nuestra experiencia cotidiana.
El motivo matemático, entiéndase.
7.1. Definición de Métrica
Vamos a formalizar el concepto de métrica en espacios vectoriales, V . Denominaremos métrica a
un tensor de tipo (0,2) que define una aplicación del siguiente modo:
g = V × V → R
Esta aplicaciones tiene las siguientes propiedades:
La aplicación es bilineal:
g(cv + v, w) = cg(v.w) + g(v′, w)
g(v, cw + w′) = cg(v, w) + g(v, w′),
7.2. MÉTRICAS EN VARIEDADES 59
donde v, w, v′, w′ ∈ V y c ∈ R
La aplicación es simétrica: g(v, w) = g(w, v)
La aplicación es no dgenerada. Esto implica que si tenemos g(v, w) = 0 para todo w ∈ V entonces
v = 0.
Gracias a una métrica podemos decidir si tenemos vectores ortonormales entre śı. Supongamos que
tenemos los vectores eµ y eν que cuando le aplicamos la métrica obtenemos:
ηµνe
µeν =

0 µ 6= ν
±1 µ = ν
Que aparezcan +1 o −1 como módulo cuadrado de un vector depende de si en la métrica hay signos
relativos entre sus componentes. Se define la signatura de una métrica denotada por sig(g) = (p, q),
donde q cuenta los signos positivos en los elementos de la métrica y q cuenta los signos negativos de
la misma.
La métrica del espacio eucĺıdeo R3 tiene signatura (3, 0). Por contra, la métrica del espacio de
Minkowski tiene signatura (3, 1).
7.2. Métricas en variedades
¿Podemos definir una métrica en una variedad M? Pues depende de si verifica algunas propiedades,
pero como os imaginaréis, las variedades en las que hemos estado trabajando cumplen sobradamente
los requisitos que son los que se establecieron cuando introdujimos el concepto de variedad.
60 CAPÍTULO 7. MÉTRICA
En una variedad M decimos que tiene definida una métrica g en ella cuando en cada p ∈M el TpM
tenemos asociada una métrica g|p. Por lo tanto, la métrica es un campo tensorial con una asignación
suave en cada punto.
Las métricas en variedades de dimensión n en las que estamos interesados aqúı se clasifican en dos
grupos dependiendo de su signatura:
g =

sig(g) = (n, 0) Riemanniana
sig(g) = (n− 1, 1) Lorenztiana
En una base coordenada la métrica toma la forma:
g = gµνdx
µdxν ⊗ dxν
Aunque es muy normal encontrar la notación:
ds2 = gµνdx
µdxνdxν
Dada una métrica en una variedad podemos hablar de normas de vectores, ángulos, áreas, volúme-
nes, intervalos de tiempo, etc. Tenemos una poderosa herramienta geométrica a nuestra disposición.
7.3. Subir y bajar ı́ndices de tensores
Como discutimos en la sección sobre la versatilidad de los tensores, la métrica nos sirve para
encontrar una forma de relacionar vectores y covectores. Podemos considerar la métrica actuando con
solo unos de los ı́ndices con lo que tomará un vector y nos devolverá una 1-forma
7.3. SUBIR Y BAJAR ÍNDICES DE TENSORES 61
g : TpM → T ∗pM
Si tenemos el vector vµ podemos enfrentarlo a la métrica y obtendremos:
vµgµν = vν
El efecto visual es que hemos bajado el ı́ndice del vector. El efecto geométrico es que hemos
encontrado una 1-forma asociada al vector a través de la métria.
¿Podemos obtener vectores a partir de covectores a través de la métrica? ¿Podemos bajar ı́ndices
con la métrica?
Pues śı, se puede. La razón es que la métrica es un tensor simétrico no degenerado. La condición de
que no sea degenerada se traduce en que su determinante, entendiendo la métrica como una matriz,
es no nulo. Por lo tanto, la métrica tiene inversa. La inversa de la métrica se denota con los ı́ndices
arriba gµν .
gµρgρν = δ
µ
ν
Con la inversa de la métrica podemos subir ı́ndices de covectores y transformarlos en vectores:
gµνωµ = ων
Esto se puede usar con cualquier tipo de tensores, solo hemos de emplear tantas métricas o sus
inversas como ı́ndices queramos bajar o subir de un determinado tensor.
62 CAPÍTULO 7. MÉTRICA
7.4. Más sobre contracciones de tensores
Como hemos discutido con anterioridad la contracción de tensores nos lleva de tensores (r, s) a
tensores (r − 1, s − 1). Esta operación es propia de los tensores. Imaginemos que disponemos del
siguiente tensor:
Rρ µσν
Con ese tensor es posible obtener tres contracciones diferentes. El ı́ndice de arriba con cada uno
de los ı́ndices de abajo. Supongamos que hacemos la siguiente contracción:
Rρ µρν = Rµν
Llegados a este punto ya no hay más contracciones posibles sobre este tensor que obtenemos como
resultado. Recordemos que la contracción necesitan de un ı́ndice arriba y otro abajo para tener sentido.
¿Podŕıamos seguir contrayendo el tensor? Pues śı, en el caso de que en nuestra variedad tengamos
a nuestra disposición una métrica. Con la métrica podemos subir un ı́ndice y entonces volveŕıa a ser
posible una nueva contracción:
gµγRγν = R
µ
ν ⇒ Rµ µ = R
Gracias a la métrica y a su capacidad para subir y bajar ı́ndices (convertir vectores en covectores)
podemos llevar la contracción de un tensor hasta extremos que sin ella no seŕıan posibles.
7.5. Teorema de planitud local
Consideremos la siguiente métrica:
7.5. TEOREMA DE PLANITUD LOCAL 63
ds2 = dr2 + r2dθ2 + r2sin2θdφ2,
esta es una forma enrevesada de escribir la métrica de R3, es la métrica eucĺıdea expresada con
coordenadas esféricas. ¿Quiere decir eso que R3 en coordenadas esféricas no es plano? En absoluto, que
una variedad, o espacio, sea plana o curvada es una caracteŕıstica intŕınseca a la misma. La curvatura
no aparece o desaparece del todo por un mero cambio de coordenadas.
Lo que es determinante es que en una variedad o espacio plano siempre es posible encontrar unas
coordenadas en las que la métrica tiene forma canónica, en el caso de R3, diag(1, 1, 1). En una variedad
curva no es posible encontrar tales coordenadas.
Con más generalidad, un espacio es plano si existe la posibilidad de escribir la métrica de forma
canónica, solo elementos en la diagonal ±1, gµν=g(−1,−1,...,1,1).
Ahora bien, en cualquier variedad podemos escribir la métrica en un punto de forma canónica. Y
lo relevante aqúı es -en un punto-. Eso solo será posible, en general, en un punto y no será extensible
a ningún entorno del mismo. Todo esto se puede enunciar en forma de teorema.
Teorema: Teorema de la Planitud local
En un punto p de una variedad M siempre es posible encontrar un sistema de coordenadas que
cumpla:
1. La métrica en dicho punto se puede escribir de forma canónica.
2. Todas las primeras derivadas de la métrica se anulan en dicho punto.
A las coordenadas en las que ocurre esto se denominan coordenadas normales.
Demostración:
64 CAPÍTULO 7. MÉTRICA
Antes de empezar, una advertencia. La demostración puede parecer aparatosa, lo es, pero no es
más que hacer un Taylor y luego un par de cuentas sobre parámetros libres (́ındices).
Tenemos un sistema de coordenadas arbitrario en un abierto U de la variedad. Tenemos un punto
p ∈ U que vendrá descrito a través dela carta con las coordenadas {xα}.
Además, en un entorno del punto p definimos las coordenadas normales como ξµ′. Las coordenadas
del punto p a través de esa carta las denotaremos por ξµ0
′.
Como tenemos dos sistemas de coordenadas en un entorno del punto p es ĺıcito preguntarnos como
se expresan unas coordenadas en función de las otras. Por ejemplo, para el caso de xα = xα(ξµ′). La
matriz de transformación entre unas y otras vendrá dada por:
∂xα
∂ξµ′
Vamos a expandir esta expresión según Taylor alrededor del punto p en términos de las coordenadas
ξµ′. Todos los desarrollos los haremos hasta segundo orden:
∂xα
∂ξµ′
(x) =
∂xα
∂ξµ′
(p) + (ξγ ′ − ξγ ′0)
∂2xα
∂ξγ ′∂ξµ′
(p)
+ (ξλ′ − ξλ′0)(ξγ ′ − ξγ ′0)
∂3xα
∂ξλ′∂ξγ ′∂ξµ′
(p) + . . .
Hagamos ahora la expansión para la métrica:
gαβ(x) = gαβ(p) + (ξ
γ ′ − ξγ ′0)
∂gαβ
∂ξγ ′
(p)
+ (ξλ′ − ξλ′0)(ξγ ′ − ξγ ′0)
∂2gαβ
∂ξλ′∂ξγ ′
(p) + . . .
Una vez que tenemos esas expansiones vamos a emplearlas para expresar como cambia la métrica
bajo el cambio de coordenadas:
7.5. TEOREMA DE PLANITUD LOCAL 65
gµ′ν′ =
∂xα
∂ξµ′
∂xβ
∂ξν ′
gαβ ,
que con los desarrollos anteriores queda a primer orden:
gµ′ν′(x) =
∂xα
∂ξµ′
(p)
∂xβ
∂ξν ′
(p)gαβ(p) + (ξ
γ ′ − ξγ ′0)
(
∂xα
∂ξµ′
(p)
∂xβ
∂ξν ′
(p)
∂gαβ
∂ξγ ′
(p)
+
∂xα
∂ξµ′
(p)gαβ(p)
∂2xβ
∂ξγ ′∂ξµ′
(p)
+
∂xβ
∂ξµ′
(p)gαβ(0)
∂2xα
∂ξγ ′∂ξµ′
(p)
)
+ . . .
Ahora contemos elementos libres en los objetos que estamos manejando:
1.
∂xα
∂ξµ′
(p) en este objeto tenemos 16 elementos libres.
2.
∂2xα
∂ξγ ′∂ξµ′
(p) aqúı tenemos 40 números libres.
3.
∂3xα
∂ξλ′∂ξγ ′∂ξµ′
(p) en este caso los elementos libres suben a 80.
4. gαβ(p) en la métrica tenemos 10 elementos independientes libres.
5.
∂gαβ
∂ξγ ′
(p) en la primera derivada de la métrica tenemos 40 números libres.
6.
∂2gαβ
∂ξγ ′∂ξµ′
(p) para la segunda derivada encontramos 100 números libres.
Para conseguir que la métrica tenga la forma canónica en el punto p, es decir, que gµ′ν′ = ηµ′ν′
tendŕıamos que resolver el siguiente sistema:
ηµ′ν′ =
∂xα
∂ξµ′
(p)
∂xβ
∂ξν ′
(p)gαβ(p)
66 CAPÍTULO 7. MÉTRICA
Eso son 10 ecuaciones para fijar 10 números y las derivadas tienen libertad para fijar 16 números.
Aśı que es posible convertir la métrica a forma canónica y además en las matrices de transformación
quedan libres 6 parámetros. Esos son los parámetros de las transformaciones de Lorentz que dejan
invariante la métrica de Minkowski que es la que observaŕıa un observador en el punto p.
Lo siguiente es comprobar que podemos anular todas las derivadas de la métrica. Para ello
tendŕıamos que resolver:
∂gµ′ν′
∂ξγ ′
(p) = 0
Esas son 40 ecuaciones:
∂xα
∂ξµ′
(p)
∂xβ
∂ξν ′
(p)
∂gαβ
∂ξγ ′
(p) +
∂xα
∂ξµ′
(p)gαβ(p)
∂2xβ
∂ξγ ′∂ξµ′
(p) +
∂xβ
∂ξµ′
(p)gαβ(0)
∂2xα
∂ξγ ′∂ξµ′
(p) = 0
Pero tenemos 40 parámetros libres en las segundas derivadas involucradas, por lo que podemos
hacer que todas las derivadas de la métrica sean nulas en las coordenadas normales.
Para fijar las segundas derivadas de la métrica tendŕıamos que resolver 100 ecuaciones, pero para
ellos necesitaŕıamos hasta las tercera derivada de las coordenadas xα respecto a las normales y ah́ı
solo tenemos 80 parámetros libres. Lo mejor que podemos hacer es anular 80 derivadas segunda de la
métrica pero aún quedaŕıan 20 que no podŕıamos anular simultáneamente.
�
Este resultado nos especialmente útil en algunos casos. Dado que las expresiones tensoriales son
válidas en todos los sistemas de coordenadas siempre podremos hacer cálculos en coordenadas nor-
males, obtener como resultados expresiones tensoriales y estaremos seguros de que son válidos en
cualquier sistema de coordeandas que se nos ocurra.
7.5. TEOREMA DE PLANITUD LOCAL 67
Un último detalle que hay que conocer es que este resultado se puede extender no solo a un
punto sino a todos los puntos de una geodésica. Las coordenadas que consiguen eso se denominan
coordenadas de Fermi. Sent́ıos libres de buscar en la bibliograf́ıa.
68 CAPÍTULO 7. MÉTRICA
Caṕıtulo 8
Derivada Covariante
Hemos insistido ya en alguna ocasión en que los tensores son objetos geometricos definidos en una
variedad y que no están comprometidos con ninguna base coordenada. El tensor es el tensor solo que
dependiendo de la carta que empleemos tendrá una representación coordenada u otra. Lo que sabemos
es que al cambiar de carta el tensor se transforma de una determinada manera, la manera en la que
se transforma un tensor.
La ley de transformación tensorial es:
T
µ′1...µ
′
r
ν′1...ν
′
s
=
∂xµ
′
1
∂xµ1
· · · ∂x
µ′r
∂xµr
∂xν1
∂xν
′
1
· · · ∂x
νs
∂xν
′
s
Tµ1...µrν1...νs
Con todas estas motivaciones supongo que estaréis deseando empezar a hacer f́ısica y que tendréis
en mente escribir las ecuaciones en forma tensorial para no comprometernos con ningún sistema de
coordenadas. Pero si uno intenta describir una ley f́ısica, por simple que sea, es dif́ıcil no encontrarse
con una derivada. Y las derivadas traen los problemas. Resulta que en las variedades la única forma
que tenemos para derivar hasta ahora viene de la mano de las ∂µ. Cuando aplicamos esas derivadas a
69
70 CAPÍTULO 8. DERIVADA COVARIANTE
un tensor lo que esperamos es que el resultado vuelva a ser un tensor. Comprobémoslo.
Tenemos un un campo vectorial V que en una carta alrededor de un punto tiene por componentes
V µ que, efectivamente, es un tensor de tipo (1, 0). Ahora vamos a derivar el vector, ∂νV
µ. Esto tiene
toda la pinta de que hemos convertido un tensor de tipo (1, 0) en un tensor (1, 1). Pero, desgraciada-
mente se queda solo en la pinta. Veamos como se comporta ∂νV
µ bajo cambio de coordenadas.
Supongamos que ese objeto en unas coordenadas {xα′} se expresa como ∂α′V β ′, la relación de este
objeto con estas coordenadas y el mismo objeto con las coordenadas {xµ} viene dado por:
∂α′V
β ′ = ∂α′
(
∂xβ ′
∂xµ
V µ
)
︸ ︷︷ ︸
transf. componentes
=
∂xν
∂xα′
∂ν︸ ︷︷ ︸
transf. base
(
∂xβ ′
∂xµ
V µ
)
Ahora calculamos las derivada ∂ν sobre el objeto de su derecha:
∂α′V
β ′ = ∂α′
(
∂xβ ′
∂xµ
V µ
)
=
∂xν
∂xα′
∂ν
(
∂xβ ′
∂xµ
V µ
)
=
∂xν
∂xα′
∂xβ ′
∂xµ
∂νV
µ +
∂xν
∂xα′
∂2xβ ′
∂xν∂xµ
V µ
Aśı que la ley de transformación de la derivada de un vector queda:
∂α′V
β ′ =
∂xν
∂xα′
∂xβ ′
∂xµ
∂νV
µ +
∂xν
∂xα′
∂2xβ ′
∂xν∂xµ
V µ︸ ︷︷ ︸
transf. no tensorial
Concluimos dos cosas: La primera es que la derivada parcial de un vector no es un tensor (esto
ocurre con cualquier tensor) y la segunda, que tenemos un problema. El motivo oculto que hay para
que la derivada parcial de un tensor no devuelva otro tensor es que en el concepto de derivada hay que
tomar la diferencia de dos tensores en dos puntos distintos de la variedad. Los tensores se construyen
a partir de vectores y covectores. Hacer la diferencia de dos tensores en dos puntos distintos implica
8.1. LA DERIVADA COVARIANTE 71
que estamos comparando vectores y covectores anclados a dos puntos distintosde la variedad y eso no
está definido ya que viven en espacios diferentes.
8.1. La derivada covariante
Ante la situación que se nos plantea parece que hay un horizonte oscuro en lo que respecta a hacer
f́ısica con tensores. Pero claro, si estás leyendo esto habrás adivinado que hay una solución porque
llegar hasta aqúı para descubrir que esto no sirve para lo que nos proponemos seŕıa un poco raro. La
solución viene de la mano de la derivada covariante.
La derivada covariante es una aplicación del espacio de tensores (r, s) en los tensores (r, s + 1).
Nada más y nada menos. Denotaremos la derivada covariante por, ∇.
Es evidente que ese objeto no aparece de forma natural en las variedades como aśı lo hacen
las derivadas parciales que son las bases de los vectores tangentes a la variedad en cada punto. Lo
que vamos a hacer es construir una derivada que transforme tensores en tensores. Como la vamos a
construir vamos a ir poniéndole condiciones.
Como hemos dicho queremos construir una derivadaque haga esto:
∇ : T (r,s) → T (r,s+1)
Y ahora pongámonos exigentes con ella. Queremos que nuestra derivada covariante cumpla lo
siguiente:
Para dos tensores T y S y números reales a y b: ∇(aT + bS) = a∇T + b∇S. Ha de ser lineal
como toda buena derivada.
72 CAPÍTULO 8. DERIVADA COVARIANTE
También ha de cumplir: ∇(TS) = T∇S + S∇T . Porque eso es lo que hacen las derivadas,
respetar la regla de Leibniz.
A la derivada covariante le vamos a exigir que conmute con la contracción de ı́ndices de los
tensores. Puedo derivar de forma covariante y luego contraer el resultado o primero contraer y
luego hacer la derivada covariante.
Ha de ser consistente con la noción de que los vectores tangentes son derivadas direccionales
de funciones suaves de la variedad. Es decir, para un v ∈ TpM tenemos que: v(f) = vµ∂µf .
Nosotros queremos que sea posible cambiar las derivadas parciales de nuestras fórmulas por
derivadas covariantes aśı que esperamos que v(f) = vµ∇µf exprese la derivada direccional
correctamente. Dicho de otro modo, queremos que la derivada covariante sea igual a la derivada
parcial cuando actúa sobre funciones suaves: ∇µf = ∂µf .
Por último vamos a exigirle a la derivada covariante que las derivadas mixtas sobre funciones
suaves en la variedad conmuten:∇µ∇µf = ∇ν∇µf . Esto se suele decir que la derivada covariante
sea libre de torsión.
Ya tenemos todo listo para poder construir nuestra nueva forma de derivar en una variedad. Lo que
vamos a hacer a partir de ahora es totalmente correcto pero es totalmente informal. La teoŕıa de las
derivadas que vamos a trabajar ahora es muy rica y muy importante en f́ısica, no solo en relatividad
general si no en el estudio de las teoŕıas gauge.
Partimos de un objeto ∇. Claro está, aún no sabemos nada de ∇ aśı que tomamos la lista de
propiedades que tiene que tener y tomando las dos primeras podemos hacer la siguiente hipótesis. La
derivada covariante ha de satisfacer la linealidad y la regla de leibniz que satisfacen todos los objetos
matemáticos que denominamos derivaciones. Podemos pensar que nuestra derivada covariante será la
8.1. LA DERIVADA COVARIANTE 73
derivada parcial conocida, ∂, más una transformación lineal que denotaremos por Γ.
∇ = ∂ + Γ
Ahora tenemos que saber qué forma tienen la Γ. Para ello vamos a aplicar la derivada covariante a
un vector V ν . Como hemos dicho la derivada covariante convierte a tensores de tipo (r, s) en tensores
de tipo (r, s+ 1), aśı nuestro vector pasará a ser un objeto con dos ı́ndices:
∇µV ν
Ahora pongamos la expresión completa que hemos imaginado para la derivada covariante, recordad
que hemos de ser consistentes con los ı́ndices en todo momento:
∇µV ν = ∂µV ν + ΓνµλV λ
Hemos elegido que Γ represente sea una matriz de n×n para cada valor del ı́ndice inferior, es decir,
(Γµ)
ν
λ. El ı́ndice el vector se ha de contraer con el ı́ndice inferior de Γ como matriz para cada valor
del ı́ndice inferior, el de la derivada covariante, µ. En términos matemáticos Γρµν son los coeficientes
de una conexión. Ahondaremos más en esto un poco más adelante.
Una cuestión importante que hemos de dilucidar es la relativa a la transformación de Γ bajo cambio
de coordenadas. Para obtener su ley de transformación vamos a recordar que nosotros queremos que
la derivada covariante se transforme como un tensor, es decir:
∇µ′V ν ′ =
∂xα
∂xµ′
∂xν ′
∂xβ
∇αV β
La expresión de la derivada covariante en las coordenadas prima será:
74 CAPÍTULO 8. DERIVADA COVARIANTE
∇µ′V ν ′ = ∂µ′V ν ′ + Γν
′
µ′λ′V
λ′
Nostros no sabemos como se transforman las Γ pero el resto de objetos de esa expresión śı sabemos
transformarlos:
∇µ′V ν ′ =
∂xα
∂xµ′
∂xν ′
∂xβ
∂αV
β +
∂xα
∂xµ′
∂2xν ′
∂xα∂xβ
V β + Γν
′
µ′λ′
∂xλ′
∂xβ
V β
Si imponemos que la transformación sea tensorial el lado de la izquierda se transformará tenso-
rialmente:
∂xα
∂xµ′
∂xν ′
∂xβ
∇αV β =
∂xα
∂xµ′
∂xν ′
∂xβ
∂αV
β +
∂xα
∂xµ′
∂2xν ′
∂xα∂xβ
V β + Γν
′
µ′λ′
∂xλ′
∂xβ
V β
Desarrollando la derivada covariante de la parte izquierda de la expresión tenemos:
∂xα
∂xµ′
∂xν ′
∂xβ
∂αV
β +
∂xα
∂xµ′
∂xν ′
∂xβ
ΓβαλV
λ =
∂xα
∂xµ′
∂xν ′
∂xβ
∂αV
β +
∂xα
∂xµ′
∂2xν ′
∂xα∂xβ
V β + Γν
′
µ′λ′
∂xλ′
∂xβ
V β
Los dos primeros términos a ambos lados de la igualdad son idénticos aśı que cancelan entre śı. La
cosa, tras reordenar un poco, queda:
∂xα
∂xµ′
∂2xν ′
∂xα∂xβ
V β + Γν
′
µ′λ′
∂xλ′
∂xβ
V β =
∂xα
∂xµ′
∂xν ′
∂xβ
ΓβαλV
λ
Podemos renombrar todos los ı́ndices mudos en la expresión para que sean el mismo:
∂xα
∂xµ′
∂2xν ′
∂xα∂xλ
V λ + Γν
′
µ′λ′
∂xλ′
∂xλ
V λ =
∂xα
∂xµ′
∂xν ′
∂xβ
ΓβαλV
λ
Esta relación ha de ser cierta para cualquiera que sea el vector V λ por tanto podemos prescindir
de él:
8.2. DERIVADA COVARIANTE DE UNA 1-FORMA 75
∂xα
∂xµ′
∂2xν ′
∂xα∂xλ
+ Γν
′
µ′λ′
∂xλ′
∂xλ
=
∂xα
∂xµ′
∂xν ′
∂xβ
Γβαλ
Ahora procedemos a aislar la Γν
′
µ′λ′ sin más que multiplicar toda la expresión por la transformación
inversa a la que la acompaña,
∂xλ
∂xλ′
. Tras eso y reordenado términos llegamos a:
Γν
′
µ′λ′ =
∂xα
∂xµ′
∂xλ
∂xλ′
∂xν ′
∂xβ
Γβαλ −
∂xα
∂xµ′
∂xλ
∂xλ′
∂2xν ′
∂xα∂xλ
Con esto hemos encontrado como se transforman los coeficientes de la conexión, los coeficientes Γ.
Está claro que la conexión no se transforma tensorialmente, nadie dijo que tuviera que hacerlo, lo que
śı tiene que hacer es compensar los términos no tensoriales de la transformación de la derivada y eso
vaya si lo hace.
Hay que tener siempre en mente que uno de los ı́ndices de la conexión es un contador y que en
términos matemáticos la conexión no es un tensor, aśı que no intentemos subir o bajar ı́ndices de Γ si
no es estrictamente necesario y sabemos muy bien lo que estamos haciendo.
8.2. Derivada covariante de una 1-forma
Ahora podŕıamos decidir hacer una derivada covariante de una 1-forma. La forma genérica de esta
derivada covariante seŕıa:
∇µων = ∂µωµ + Γ̃λµνωλ
En principio los coeficientes Γ̃ y Γ no tienen ningún motivo para estar relacionados entre śı. Las
Γ̃ son un nuevo conjunto de matrices. Eso śı, a vista de la expresión su ley de transformación ha
de ser idéntica que para las Γ empleadas en la derivada covariante de vectores. Recordemos que la
76 CAPÍTULO 8. DERIVADA COVARIANTE
ley de transformación no depende el vector sobre el que derivamos y que el término no tensorial de
la transformación únicamente involucra coordenadas. Sin embargo, y afortunadamente, Γ̃ y Γ están
relacionadas entre śı.
Para encontrar la relación hagamos la derivada covariante de ωλV
λ que es un número real. Por lo
tanto la derivada covariante sobre ese objeto ha de coincidir con la derivada parcial:
∇µ(ωλV λ) = ∂µ(ωλV λ) = (∂µωλ)V λ + ωλ(∂µV λ)
Empleemos ahora el hecho de que la derivada covariante también verifica la regla de Leibniz:
∇µ(ωλV λ) = (∇µωλ)V λ + ωλ(∇µV λ)
Desarrollemos las derivadas covariantes de la derecha en función de su expresión completa, recor-
demos que hemos de emplear Γ̃ cuando actuemos sobre 1-formas y Γ cuando actuemos sobre vectores:
∇µ(ωλV λ) = (∂µωλ)V λ + Γ̃σµνωσV λ + ωλ(∂µV λ) + ΓσµλωσV λ
La única forma de que eso se reduzca a la aplicación de las parciales, como tiene que ser ya que
estamos haciendo la derivada covariante de una función escalar, es que se cumpla:
Γ̃σµνωσV
λ + ΓσµλωσV
λ = 0
Esa expresión ha de ser la misma independientemente de la 1-forma y el vector, con eso llegamos
a la relación que buscábamos:
Γ̃σµν = −Γσµλ
8.3. CORCHETE DE CAMPOS VECTORIALES Y LA DERIVADA COVARIANTE 77
Concluyamos esta sección con la forma definitiva de la derivada covariante sobre 1-formas:
∇µων = ∂µωµ − Γλµνωλ
8.3. Corchete de campos vectoriales y la derivada covariante
Un campo vectorial, como ya sabemos, es una asignación suave de vectores tangentes a cada punto
de la variedad M . Con ellos podemos calcular la derivada direcciona en cada punto de una función
suave definida sobre la variedad:
v(f) = vµ∂µf

Continuar navegando

Materiales relacionados

42 pag.
Espacio-tiempo-con-torsion-en-sistemas-con-simetra

User badge image

Aprendiendo Matemáticas y Fisica

97 pag.
2871-Producto-Vectorial

UNAM

User badge image

ricardo.cortesh69

95 pag.
Introduccion-a-la-geometra-de-Riemann-Finsler

User badge image

Aprendiendo Matemáticas y Fisica