Logo Studenta

Cálculo de las Variaciones - Felipe Álvarez - Jose Madero

¡Este material tiene más páginas!

Vista previa del material en texto

UNIVERSIDAD DE CHILE
facultad de ciencias fisicas y matematicas
departamento de ingenieria matematica
II ESCUELA DE VERANO MECESUP 2002
CALCULO DE VARIACIONES
Felipe Alvarez
(P)



mı́n
T∫
0
L(x(t), ẋ(t))dt,
x(0) = x0, x(T ) = x1.
Diciembre 2002
2
Índice general
1. Introducción 5
1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 5
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Definición de solución óptima . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Problemas variacionales sin solución . . . . . . . . . . . . . . . . . . . 8
2. El método directo del cálculo de variaciones 13
2.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. La condición de crecimiento y compacidad . . . . . . . . . . . . . . . 13
2.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . 16
2.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . 18
3. Ecuaciones de Euler-Lagrange: caso diferenciable 21
3.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . 21
3.2. Resultados técnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4. Regularidad de las soluciones óptimas 27
4.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . 27
4.2. Demostración del resultado de regularidad . . . . . . . . . . . . . . . 28
5. Ecuaciones de Euler-Lagrange: caso Lipschitz 33
5.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . 33
5.2. Ejemplo: dinámica de una part́ıcula . . . . . . . . . . . . . . . . . . . 35
6. Ejercicios 37
Bibliograf́ıa 39
3
4 ÍNDICE GENERAL
Caṕıtulo 1
Introducción
Estos apuntes tienen como objetivo introducir los conceptos y métodos básicos del
cálculo de variaciones a través del estudio de la siguiente clase particular de problemas
variacionales:
(P)



mı́n
T∫
0
L(x(t), ẋ(t))dt
x(0) = x0, x(T ) = x1,
donde L : RN ×RN → R es una función suficientemente regular. Estudiaremos tanto
la existencia y regularidad de las soluciones de (P) como las condiciones necesarias
de primer orden que estas soluciones deben satisfacer, con un énfasis especial en las
herramientas del análisis funcional que son útiles para un tratamiento riguroso de la
teoŕıa.
1.1. Funcionales y problemas variacionales
Diversos problemas en matemáticas puras y aplicadas consisten en determinar
una función que minimice algún criterio, costo o enerǵıa, sujeto a ciertas restricciones.
T́ıpicamente, en estos problemas el criterio a optimizar viene dado por una corres-
pondencia que a cada función perteneciente a alguna clase o conjunto de funciones
le asigna un único número real, el cual tiene alguna interpretación geométrica, f́ısica
o económica. Llamaremos funcional a toda correspondencia de este tipo y problema
variacional al problema de optimización asociado.
Para dar un contexto más preciso a lo anterior, denotemos por C1(a, b;RN) la
clase de todas las funciones x : [a, b] → RN que son continuamente diferenciables en
el intervalo [a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo
J : C1(a, b;RN) → R
x 7→ J(x) =
b∫
a
L(x(t), ẋ(t))dt,
5
6 CAPÍTULO 1. INTRODUCCIÓN
para alguna función
L : RN ×RN → R
(x, y) 7→ L(x, y),
la que supondremos suficientemente regular (al menos continua).
1.2. Ejemplos
Ejemplo 1.2.1 (Camino más corto) Encontrar la curva plana más corta que une
dos puntos A = (x0, y0) y B = (x1, y1), i.e. encontrar la curva y = y(x) que minimice
el funcional
J(y) =
x1∫
x0
√
1 + y′(x)2dx
bajo la restricción
y(x0) = y0, y(x1) = y1.
Ejemplo 1.2.2 (Braquistócrona) Partiendo de un punto A = (x0, y0), una part́ıcu-
la con peso se desliza bajo la influencia de la gravedad sobre una curva que une A
con otro punto B = (x1, y1) tal que y0 > y1. El tiempo que le toma a la part́ıcula
recorrer este camino depende de la curva recorrida y por lo tanto la correspondencia
que a cada curva regular le asocia el tiempo necesario para recorrerla es un funcional.
La curva de tiempo mı́nimo se conoce como la braquistócrona. Para modelar este pro-
blema, sea y ∈ C1(x0, x1) una función de modo tal que la trayectoria de la part́ıcula
satisface y(t) = y(x(t)). Tenemos que la rapidez de la part́ıcula satisface
v(t) =
ds
dt
=
ds
dx
·
dx
dt
=
√
1 + y′2
dx
dt
.
Por otra parte, suponiendo que la part́ıcula inicia su movimiento desde el reposo
(v(0) = 0) tenemos que por conservación de la enerǵıa:
1
2
mv2 +mgy = mgy0 ⇒ v =
√
2g(y0 − y)
Aśı, al menos formalmente,
dt =
√
1 + y′2√
2g(y0 − y)
dx,
de modo que el tiempo de recorrido a minimizar está dado por
T =
x1∫
x0
√
1 + y′2√
2g(y0 − y)
dx.
sujeto a
y(x0) = y0, y(x1) = y1.
1.3. DEFINICIÓN DE SOLUCIÓN ÓPTIMA 7
Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op-
ción, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el
consumo del individuo en el instante t respectivamente. Suponemos además que una
función f = f(x) representa la producción de capital y una función u = u(c), llamada
función de utilidad, describe el beneficio instantáneo del individuo ante un consumo
dado por c. Luego, en un horizonte [0, T ], el individuo busca maximizar la utilidad
esperada, esto es 


máx
T∫
0
u(c(t))dt
dx
dt
(t) = f(x(t)) − c(t)
x(0) = x0 (capital inicial)
x(T ) = x1 (capital final)
o equivalentemente 


mı́n
T∫
0
−u(f(x(t)) − ẋ(t))dt
x(0) = x0, x(T ) = x1.
1.3. Definición de solución óptima
Nos concentraremos en problemas variacionales autónomos, es decir, problemas
donde la variable independiente, digamos t, no aparece expĺıcitamente en el criterio
a minimizar. Más precisamente, consideraremos un problema del tipo
(P)



mı́n
T∫
0
L(x(t), ẋ(t))dt
x(0) = x0, x(T ) = x1,
donde
L : RN × RN → R
es una función continua.
Para esta clase de problemas no siempre es posible asegurar la existencia de so-
luciones en C1(0, T ;RN). Trabajaremos en la clase AC(0, T ;RN) de las funciones
absolutamente continuas definidas en el intervalo [0, T ] y a valores en RN , es decir
AC(0, T ;RN) = {x : [0, T ] → RN |∃y ∈ L1(0, T ;RN), x(t) = x0 +
∫ t
0
y(s)ds}.
Dada x ∈ AC(0, T ;RN), denotamos simplemente por ẋ a la función y ∈ L1(0, T ;RN)
correspondiente. Evidentemente, C1(0, T ;RN) AC(0, T ;RN). Definamos
ı́nf(P) = ı́nf{
∫ T
0
L(x(t), ẋ(t))dt|x ∈ AC(0, T ;RN), x(0) = x0, x(T ) = x1}.
8 CAPÍTULO 1. INTRODUCCIÓN
Definición 1.3.1 Toda función x ∈ AC(0, T ;RN) tal que x(0) = x0 y x(T ) = x1 se
dice que es factible para (P). Se dice que x̄ ∈ AC(0, T ;RN) es una solución de (P)
si junto con ser factible satisface
T∫
0
L(x̄(t), ˙̄x(t))dt = ı́nf(P).
Si además x̄ ∈ C1(0, T ;RN), diremos que x̄ es una solución regular de (P).
Se tiene que ı́nf(P) < +∞ y más aún, tomando la función factible
x̂(t) = x0 +
t
T
(x1 − x0),
se deduce que
ı́nf(P) ≤ T sup
x∈[x0,x1]
L(x, (x1 − x0)/T ),
y este supremo no sólo es finito sino que además se alcanza, de modo que se trata de
un máximo, en virtud de la continuidad de x 7→ L(x, (x1 − x0)/T ).
Cuando ı́nf(P) ∈ R, sin condiciones adicionales sobre L, el problema (P) puede
no tener soluciones óptimas. A continuación veremos dos ejemplos en este sentido.
1.4. Problemas variacionales sin solución
Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional
(P1)



mı́n
1∫
0
[
1
2
x(t)2 + |ẋ(t)|]dt
x(0) = 0, x(1) = 1
Aqúı, N = 1 y
L(x, y) =
1
2
x2 + |y|.
Notemos que para cada función factible se tiene
1∫
0
ẋ(t)dt = x(1) − x(0) = 1,
y en consecuencia
1∫
0
|ẋ(t)|dt ≥ 1.
Por otra parte,
1∫
0
x(t)2dt ≥ 0 y más aún, dado que x es continua y x(1) = 1 > 0,
necesariamente
1∫
0
x(t)2dt > 0.
1.4. PROBLEMAS VARIACIONALES SIN SOLUCIÓN 9
En conclusión,para cada función factible,
1∫
0
[
1
2
x(t)2 + |ẋ(t)|]dt > 1, (1.1)
y por lo tanto ı́nf(P1) ≥ 1. Veremos que ı́nf(P1) = 1, lo que junto con (1.1) prueba
que (P1) no admite solución. Con este fin, consideremos la sucesión xn ∈ AC(0, 1;R)
definida por
xn(t) =



0 si 0 ≤ t ≤ 1 − 1
n
,
n(t− 1 + 1
n
) si 1 − 1
n
≤ t ≤ 1.
Tenemos que para todo n ≥ 1, xn(0) = 0 y xn(1) = 1. Más aún,
1∫
0
L(xn(t), ẋn(t))dt =
1∫
1−1/n
1
2
n2(t− 1 +
1
n
)2dt+
1∫
1− 1
n
ndt
=
n2
6
(t− 1 +
1
n
)3
∣∣∣∣
t=1
t=1−1/n
+ 1
=
1
6n
+ 1 → 1
En conclusión, ı́nf(P1) = 1 y este valor no es alcanzado.
El ejemplo 1.4.1 es un caso t́ıpico de un fenómeno de concentración: puntualmente
la sucesión minimizante converge
xn(t) −−→
n→∞
{
0 si 0 ≤ t < 1,
1 si t = 1,
pero el ĺımite no es continuo de modo que no pertenece a AC(0, 1). Finalmente,
notemos que L(x, ẋ) = 1
2
x + |ẋ| tiene un crecimiento lineal en ẋ. Veremos que en
cierto sentido, esta es la razón por la cual (P1) no admite solución.
Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacional
dado por
(P2)



mı́n
1∫
0
[
1
2
x(t)2 + (1 − ẋ(t)2)2]dt
x(0) = 0 = x(1).
Nuevamente N = 1, y tenemos
L(x, y) =
1
2
x2 + (1 − y2)2.
Observemos que en este caso L(x, y) crece superlinealmente en y, más precisamente,
y 7→ L(x, y) se comporta como como y4 cuando |y| → +∞.
10 CAPÍTULO 1. INTRODUCCIÓN
Obviamente, ı́nf(P2) ≥ 0. Dado n ≥ 1, consideremos la función definida por
xn(t) = (−1)
k
(
1
2n
− |t−
(2k + 1)
2n
|
)
si |t−
2k + 1
2n
| ≤
1
2n
, 0 ≤ k ≤ n− 1.
Notemos que xn(0) = xn(1) = 0, ẋn(t) = ±1 y |xn(t)| ≤
1
2n
. En particular, xn(t) → 0
uniformemente en [0, 1]. Tenemos que
1∫
0
[
1
2
xn(t)
2 + (1 − ẋn(t)
2)2︸ ︷︷ ︸
0
]dt =
1∫
0
1
2
xn(t)
2dt
= n
∫ 1
2n
0
t2dt =
n
3
t3|
t= 1
2n
t=0
=
n
3
×
1
8n3
=
1
24n2
→ 0.
Por lo tanto, ı́nf(P2) = 0. Si este valor fuese alcanzado por una función x̄ en AC(0, 1)
entonces se tendŕıa
0 =
1∫
0
[
1
2
x̄(t)2 + (1 − ˙̄x(t)2)2]dt ⇒ x̄(t) = 0 c.t.p. t ∈ [0, 1]
∧
| ˙̄x(t)| = 1 c.t.p. t ∈ [0, 1]
lo que es imposible. En consecuencia, (P2) no admite solución.
El ejemplo 1.4.2 ilustra un fenómeno de oscilación. Observemos que la función
L(x, y) no es convexa en y; de hecho, y 7→ L(x, y) tiene dos mı́nimos locales estrictos
en y = −1 e y = 1. Intuitivamente, la sucesión minimizante (ver la definición 2.1.1)
es tal que ẋn oscila entre ambos valores mı́nimos, lo que explicaŕıa la no existencia
de soluciones.
En el siguiente caṕıtulo veremos que para asegurar la existencia de soluciones,
junto con cierta regularidad de L(x, y), bastará con suponer sobre y 7→ L(x, y):
Una condición de crecimiento.
Una condición de convexidad.
Caṕıtulo 2
El método directo del cálculo de
variaciones
2.1. Sucesiones minimizantes
Definición 2.1.1 Una sucesión (xn) ⊂ AC(0, T ;R
N) se dice sucesión minimizante
para (P) si xn(0) = x0, xn(T ) = x1 y se tiene
ĺım
n→+∞
T∫
0
L(xn(t), ẋn(t))dt = ı́nf(P).
Notemos que siempre existe una sucesión minimizante. Para establecer la existen-
cia de soluciones consideraremos la siguiente estrategia: tomar una sucesión minimi-
zante y probar que, pasando a una subsucesión, converge a una solución.
Para poder extraer una subsucesión convergente de una sucesión minimizante,
necesitamos una propiedad de compacidad.
2.2. La condición de crecimiento y compacidad
Dada una constante p ∈ (1,+∞), supondremos que L(x, y) satisface la siguiente
condición de crecimiento:
(Cp) Existen constantes a ∈ R y b > 0 tales que
∀(x, y) ∈ RN × RN , L(x, y) ≥ a+ b‖y‖p.
Dado que p > 1, se dice que el crecimiento de y 7→ L(x, y) es superlineal. El ca-
so p = +∞ puede permitirse, significando que existe una constante C > 0 tal que
‖y‖ ≤ C, lo que se interpreta como una restricción sobre ẋ impĺıcita en la definición de
L. Sin embargo, para simplificar la exposición nos restringiremos al caso p ∈ (1,+∞).
11
12 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES
Notemos que la condición de crecimiento (Cp) permite asegurar que ı́nf(P) ∈ R
pues de ésta se deduce que
ı́nf(P) ≥ aT > −∞,
y ya sab́ıamos que ı́nf(P) < +∞.
Lema 2.2.1 Bajo (Cp), si (xn) es una sucesión minimizante para (P) entonces (ẋn)
es acotada en Lp(0, T ;RN), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N,
‖ẋn‖Lp ≤ C.
Demostración. Sin pérdida de generalidad podemos suponer que
∀n ≥ 1,
T∫
0
L(xn(t), ẋn(t))dt ≤ ı́nf(P) + 1.
Por (Cp), aT + b
∫ T
0
‖ẋn(t)‖
pdt ≤ ı́nf(P) + 1. Aśı
‖ẋn‖
p
Lp ≤
ı́nf(P) + 1 − aT
b
=: K
es decir ‖ẋn‖Lp ≤ K
1/p.
Proposición 2.2.1 Supongamos que se tiene (Cp). Si (xn) es una sucesión minimi-
zante para (P) entonces existe una función x̄ ∈ AC(0, T ;RN), factible para (P), y
una subsucesión (xnk) tales que:
(i) xnk → x̄ uniformemente en [0, T ].
(ii) ẋnk ⇀ ˙̄x débilmente en L
p(0, T ;RN).
Demostración. Dividimos la demostración en dos etapas.
Etapa 1. Definición de x̄. Como p ∈ (1,+∞), Lp(0, T ;RN) resulta ser una espacio
de Banach reflexivo y por lo tanto la bola unitaria es débilmente compacta. Luego,
por el lema 2.2.1, existe una subsucesión ẋnk tal que ẋnk ⇀ ȳ cuando k → +∞ para
algún ȳ ∈ Lp(0, T ;RN). Esto equivale a
∀ϕ ∈ Lq(0, T ;RN), 〈ẋk, ϕ〉Lp,Lq −−−→
k→+∞
〈ȳ, ϕ〉Lp,Lq en R,
donde q ∈ (1,+∞) satisface
1
p
+
1
q
= 1.
Más expĺıcitamente, para todo ϕ ∈ Lq(0, T ;RN) se tiene
T∫
0
ẋnk(t)ϕ(t)dt→
T∫
0
ȳ(t)ϕ(t)dt.
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13
Es natural definir x̄ ∈ AC(0, T ;RN) por medio de
x̄(t) = x0 +
t∫
0
ȳ(s)ds, (2.1)
de modo tal que ȳ = ˙̄x c.t.p. en [0, T ].
Etapa 2. Convergencia uniforme. Comencemos por verificar la convergencia puntual
de (xnk) hacia la función x̄ definida por (2.1). Dado t ∈ [0, T ] fijo, tenemos que
xnk(t) = x0 +
t∫
0
ẋnk(s)ds
= x0 +
T∫
0
ẋnk(s)1[0,t](s)ds
= x0 + 〈ẋnk , 1[0,t]〉Lp,Lq ,
lo que junto con la convergencia débil de (ẋnk) a ȳ asegura que
xnk(t) → x0 + 〈ȳ, 1[0,t]〉Lp,Lq
= x0 +
t∫
0
ȳ(s)ds
= x̄(t).
Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probar
que (xn) es equicontinua
1. Sean t1, t2 ∈ [0, T ] con t1 > t2. Escribamos
xn(t2) − xn(t1) =
t2∫
t1
ẋn(s)ds =
T∫
0
1[t1,t2](s)ẋn(s)ds.
Por la desigualdad de Hölder y el lema 2.2.1
‖xn(t2) − xn(t1)‖ ≤ ‖1[t1,t2]‖Lq‖ẋn‖Lp ≤ (t2 − t1)
1/qC,
lo que prueba la equicontinuidad de la familia (xn).
2.3. Primer teorema de existencia: caso separable
En esta sección suponemos que
L(x, y) = g(x) + f(y), x, y ∈ RN ,
donde
(a) f y g son continuas.
(b) L satisface (Cp).
1El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la conver-
gencia simple o puntual implica la uniforme.
14 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES
(c) f es convexa.
Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, es
decir ı́nf
x∈RN
g(x) > −∞, y que f satisface (Cp).
Teorema 2.3.1 Bajo las condiciones anteriores, (P) admite al menos una solución.
Demostración. Sea (xn) una sucesión minimizante para (P). Por la proposición
2.2.1, es posible extraer una subsucesión (xnk) y encontrar x̄ ∈ AC(0, T ;R
N) tales
que x̄(0) = x0, x̄(T ) = x1 y
xnk → x̄ uniformemente en [0, T ],
ẋnk → ˙̄x débilmente en L
p(0, T ;RN).
Queremos probar que
T∫
0
L(x̄(t), ˙̄x(t))dt =
T∫
0
g(x̄(t))dt+
T∫
0
f( ˙̄x(t))dt = ı́nf(P).
Por la definición de sucesión minimizante, sabemos que
T∫
0
g(xnk(t))dt+
T∫
0
f(ẋnk(t))dt =
T∫
0
L(xnk(t), ẋnk(t))dt→ ı́nf(P).
De la convergencia uniforme de (xnk) y la continuidad de g deducimos que se tiene
ĺım
k→∞
T∫
0
g(xnk(t))dt =
T∫
0
g(x̄(t))dt.
Para estudiar la convergencia del segundo término, definamos
F (y) =
T∫
0
f(y(t))dt, y ∈ Lp(0, T ;RN). (2.2)
Notemos que por (Cp) necesariamente F (y) > −∞ para todo y ∈ L
p(0, T ;RN); sin
embargo, podŕıa tenerse F (y) = +∞ para algún y ∈ Lp(0, T ;RN) pues no hemos
supuesto ningún tipo de comportamiento“por arriba”del integrando f(y).
Proposición 2.3.1 Si f : RN → R es continua y acotada inferiormente (́ınf f >
−∞) entonces la función F : Lp(0, T ;RN) → R ∪ {+∞} definida por (2.2) es se-
micontinua inferiormente, es decir, para toda sucesión yn → y en L
p(0, T ;RN) se
tiene
F (y) ≤ ĺım inf
n→∞
F (yn).
2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15
Posterguemos por un momento la demostración de la proposición 2.3.1. Notemos
que no podemos aplicar directamente este resultado a nuestro caso pues sólo tenemos
ẋnk → ˙̄x débilmente en L
p(0, T ;RN). Sin embargo, de la convexidad de f se deduce
que F es una función convexa. Recordando que en un espacio de Banach reflexivo, las
funciones convexas y semicontinuas inferiormente para la topoloǵıa fuerte también lo
son para la topoloǵıa débil, deducimos que F es semicontinua inferiormente para la
topoloǵıa débil en Lp(0, T ;RN). Por lo tanto,
F ( ˙̄x) ≤ ĺım inf
k→∞
F (ẋnk),
y en consecuencia
T∫
0
g(x̄(t))dt+
T∫
0
f( ˙̄x(t))dt ≤ ı́nf(P).
Dado que x̄ es factible para (P), la otra desigualdad siempre se tiene, y entonces x̄
es solución de (P).
Demostración de la proposición 2.3.1. Recordemos el siguiente resultado funda-
mental de la teoŕıa de la medida:
Lema 2.3.1 (Fatou) Sea fn : [0, T ] → R una sucesión de funciones medibles tal que
fn ≥ 0 para todo n ≥ 0. Entonces
ĺım inf
n→∞
T∫
0
fn(t)dt ≥
T∫
0
ĺım inf
n→∞
fn(t)dt.
El lema de Fatou es válido si (fn) es acotada inferiormente de manera uniforme, i.e.
∃α ∈ R, ∀n ≥ 0, fn ≥ −α, pues basta aplicar el resultado anterior a f̄n = fn + α.
Para probar la proposición 2.3.1, razonemos por contradicción. Supongamos que existe
una sucesión (yn) ⊆ L
p(0, T ;RN) que converge fuertemente a un y ∈ Lp(0, T ;RN) y
que se tiene
ĺım inf
n→∞
F (yn) < F (y). (2.3)
Podemos extraer una subsucesión (ynk) tal que
ĺım
k→∞
F (ynk) = ĺım infn→∞
F (yn).
Dado que yn → y en L
p(0, T ;RN), podemos extraer a su vez una nueva subsucesión
(ynkj ) tal que ynkj (t) → y(t) para c.t.p. t ∈ [0, T ]. Sea fj(t) = f(ynkj (t)). Como
ı́nf f > −∞, (fj) es acotada inferiormente. Además, fj(t) → f(y(t)) c.t.p. en [0, T ]
en virtud de la continuidad de f . Luego
F (y) =
T∫
0
f(y(t))dt =
T∫
0
ĺım
j→∞
fj(t)dt ≤ ĺım inf
j→∞
T∫
0
fj(t)dt = ĺım inf
j→∞
F (ynkj )
= ĺım
k→∞
F (ynk)
= ĺım inf
n→∞
F (yn),
donde la desigualdad se tiene por el lema de Fatou, contradiciendo aśı (2.3).
16 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES
2.4. Segundo teorema de existencia: caso regular
Teorema 2.4.1 Supongamos que
(a) L ∈ C(RN × RN ;R) y
∂L
∂yi
∈ C(RN × RN ;R).
(b) L satisface (Cp).
(c) y 7→ L(x, y) es convexa.
Entonces (P) admite al menos una solución.
Demostración. Por la proposición 2.2.1, sabemos que existe una sucesión minimi-
zante (xn) para (P) y una función x̄ factible para (P) tales que
(i) ĺım
n→∞
T∫
0
L(xn, ẋ) = ı́nf(P).
(ii) ∃C ≥ 0 tal que ∀n ∈ N, ‖ẋn‖Lp ≤ C.
(iii) xn → x̄ uniformemente en [0, T ]
(iv) ẋn ⇀ ˙̄x débilmente en L
p(0, T ;RN)
Recordemos el siguiente resultado de la teoŕıa de la medida.
Teorema 2.4.2 (Lusin) Sea f ∈ L1(0, T ;RN). Entonces, ∀δ > 0, ∃K ⊆ [0, T ] com-
pacto tal que:
(1) L1([0, T ] \ K) ≤ δ, donde L1 es la medida de Lebesgue en R.
(2) f es continua en K.
Sin pérdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reempla-
zar L(x, y) por L(x, y)−a donde a es la constante que aparece en (Cp)). Supongamos
que
T∫
0
L(x̄, ˙̄x)dt < +∞.
Luego,
µ(A) =
∫
A
L(x̄, ˙̄x)dt
es una medida positiva y finita sobre los borelianos que resulta ser absolutamente
continua con respecto a L1. Por el teorema de Lusin, dado ε > 0 existe un compacto
K ⊆ [0, T ] tal que x̄ y ˙̄x son continuas en K y además
∫
K
L(x̄, ˙̄x)dt ≥
T∫
0
L(x̄, ˙̄x)dt− ε.
2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17
(en el caso
∫
K
L(x̄, ˙̄x)dt = +∞, para cada M > 0 podemos escoger K de modo tal que
∫
K
L(x̄, ˙̄x)dt ≥ M).
Por convexidad de y 7→ L(x, y), tenemos que
∫
K
L(xn, ẋn)dt ≥
∫
K
[L(xn, ˙̄x) +
∂L
∂y
(xn, ˙̄x)(ẋn − ˙̄x)]dt
Luego
∫
K
L(xn, ẋn)dt ≥
∫
K
[L(xn, ˙̄x) +
∂L
∂y
(x̄, ˙̄x)(ẋn − ˙̄x) + (
∂L
∂y
(xn, ˙̄x) −
∂L
∂y
(x̄, ˙̄x))(ẋn − ˙̄x)]dt
Estudiemos la convergencia de cada uno de estos términos. Como xn → x̄ uniforme-
mente y L es continuo, tenemos que
ĺım
n→∞
∫
K
L(xn, ˙̄x) =
∫
K
L(x̄, ˙̄x).
Por otra parte, la convergencia débil ẋn ⇀ ˙̄x junto con la continuidad de
∂L
∂y
y la de
x̄ y ˙̄x en K permiten asegurar que
ĺım
n→∞
∫
K
∂L
∂y
(x̄, ˙̄x)(ẋn − ˙̄x) = 0.
Finalmente, de la convergencia uniforme de xn → x̄ junto con el acotamiento uniforme
de las normas Lp de ẋn y ˙̄x, y la continuidad de
∂L
∂y
, se deduce que
ĺım
n→∞
∫
K
(
∂L
∂y
(xn, ˙̄x) −
∂L
∂y
(x̄, ˙̄x))(ẋn − ˙̄x) = 0.
Luego
ı́nf(P) = ĺım
n→∞
T∫
0
L(xn, ẋn)dt ≥ ĺım inf
n→∞
∫
K
L(xn, ẋn)dt ≥
∫
K
L(x̄, ˙̄x)dt
≥
T∫
0
L(x̄, ˙̄x) − ε.
Como ε > 0 es arbitrario, se deduce el resultado.
18 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES
Caṕıtulo 3
Ecuaciones de Euler-Lagrange:
caso diferenciable
3.1. Condiciones necesarias de primer orden
Una vez demostrada la existencia de una solución, nos interesa poder caracterizarla
mediante una ecuación, ya sea con el fin de obtener un método para calcularla o bien
para deducir más propiedades sobre la solución a partir de la ecuación. El objetivo
de este caṕıtulo es probar el siguiente resultado:
Teorema 3.1.1 Supongamos que L ∈ C1(RN × RN ;R). Si x̄ ∈ C1(0, T ;RN) es una
solución regular de (P) entonces
∂L
∂y
(x̄(t), ˙̄x(t)) es diferenciable y más aún
d
dt
∂L
∂y
(x̄(t), ˙̄x(t)) =
∂L
∂x
(x̄(t), ˙̄x(t)), t ∈ [0, T ]. (3.1)
Observemos que (3.1) es una ecuación diferencial de segundo orden para x̄, la cual
se conoce como la ecuación de Euler-Lagrange de (P).
Para establecer este resultado, la idea es “perturbar” la solución x̄. Consideremos
una función h ∈ C1(0, T,RN) tal que
h(0) = h(T ) = 0.
Definamos
Φ(λ) = J(x̄+ λh), λ ∈ R.
donde
J(x) =
T∫
0
L(x(t), ẋ(t))dt.
Observemos que la función
xλ(t) = x̄(t) + λh(t)
19
20CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE
es factible para el problema (P) pues xλ ∈ C
1(0, T ;RN), xλ(0) = x̄(0) = 0 y xλ(T ) =
x̄(T ) = x1. De este modo, por optimalidad de x̄ para (P), deducimos que
∀λ ∈ R, Φ(0) ≤ Φ(λ),
de modo que 0 es un mı́nimo de Φ. Si Φ es diferenciable entonces debe satisfacerse la
condición necesaria de optimalidad
Φ′(0) = 0.
Como L, x̄ y h son de clase C1, tenemos que
Φ′(0) =
d
dλ
J(x̄+ λh)|λ=0 =
d
dλ
T∫
0
L(xλ(t), ẋλ(t))dt|λ=0
=
T∫
0
d
dλ
[L(x̄(t) + λh(t), ˙̄x(t) + λḣ(t))]|λ=0dt
=
T∫
0
[
∂L
∂x
(x̄(t), ˙̄x(t))h(t) +
∂L
∂y
(x̄(t), ˙̄x(t))ḣ(t)]dt.
Luego, para todo h ∈ C1(0, T ;RN) tal que h(0) = h(T ) = 0 se tiene
T∫
0
[
∂L
∂x
(x̄(t), ˙̄x(t))h(t) +
∂L
∂y
(x̄(t), ˙̄x(t))ḣ(t)]dt = 0 (3.2)
Para deducir de aqúı la ecuación de Euler-Lagrange (3.1), basta con justificar una
integración por partes más un argumento de localización. Con este fin, necesitamos
algunos resultados técnicos.
3.2. Resultados técnicos
Lema 3.2.1 Sea c ∈ C(a, b) tal que
b∫
a
c(t)h(t)dt = 0
para toda función h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b].
Demostración. Dado n ≥ 1, definamos la función
ϕn(t) =



n(t− a) si a ≤ t ≤ a+ 1/n,
1 si a+ 1/n ≤ t ≤ b− 1/n,
n(b− t) si b− 1/n ≤ t ≤ b.
Tomando hn = ϕnc se tiene hn ∈ C(a, b) y hn(a) = hn(b) = 0. Luego
∀n ≥ 0,
b∫
a
c(t)hn(t)dt = 0
3.2. RESULTADOS TÉCNICOS 21
Por ota parte, chn = ϕnc
2 ր c2 y, por el teorema de la convergencia dominada, se
obtiene
0 = ĺım
n→∞
b∫
a
c(t)hn(t)dt =
b∫
a
c2(t)dt.
Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b].
Lema 3.2.2 Sea c ∈ C(a, b) tal que
b∫
a
c(t)ḣ(t)dt = 0
para toda función h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces, existe una constante
c ∈ R tal que c ≡ c en [a, b].
Demostración. Sea
c =
1
b− a
b∫
a
c(t)dty consideremos
h(t) =
t∫
a
[c(ξ) − c]dξ,
función que satisface h(a) = h(b) = 0 y además h ∈ C1(a, b). En consecuencia
0 =
b∫
a
c(t)ḣ(t)dt =
b∫
a
c(t)[c(t) − c]dt.
Como
b∫
a
c̄[c(t) − c]dt = c(b− a)c− c2(b− a) = 0,
deducimos que
b∫
a
[c(t) − c̄]2dt = 0.
Luego, c(t) = c̄ c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ c
en [a, b].
22CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE
Proposición 3.2.1 Sean c, d ∈ C(a, b) tales que
b∫
a
[c(t)h(t)dt+ d(t)ḣ(t)]dt = 0
para todo h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces d ∈ C1(a, b) y más aún ḋ = c.
Demostración. Aplicaremos integración por partes. Sea
A(t) =
t∫
a
c(ξ)dξ.
Entonces, para todo h ∈ C1(a, b) con h(a) = h(b) = 0 se obtiene
b∫
a
c(t)h(t)dt = A(t)h(t)|ba −
b∫
a
A(t)ḣ(t)dt = −
b∫
a
A(t)ḣ(t)dt,
y en consecuencia
b∫
a
[−A(t) + d(t)]ḣ(t)dt = 0.
Por el lema 3.2.2, existe c ∈ R tal que
d(t) = A(t) + c̄,
y en particular
ḋ(t) = Ȧ(t) = c(t),
lo que prueba el resultado.
3.3. Conclusión
Aplicando la proposición 3.2.1 a (3.2) se deduce la conclusión del teorema 3.1.1.
Notemos que tal como han sido expuestas, existe una brecha entre la teoŕıa de
existencia y la de condiciones necesarias. La primera sólo proporciona soluciones
x̄ ∈ AC(0, T ;RN), de modo tal que sólo podemos asegurar ˙̄x ∈ L1(0, T ;RN). En
realidad, se tiene un poco más: ˙̄x ∈ L1(0, T ;RN) con p > 1 asociado a la condición de
crecimiento (Cp). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu-
mimos que x̄ ∈ C1(0, T ;RN), de modo tal que no podemos aplicar el último teorema
a las soluciones que se obtienen a partir del método directo.
Para cerrar esta brecha, es necesario desarrollar una tercera teoŕıa concerniente a
la regularidad de las soluciones de (P). Ese es el objetivo del siguiente caṕıtulo.
Caṕıtulo 4
Regularidad de las soluciones
óptimas
4.1. Regularidad de tipo Lipschitz
Con el fin de cerrar la brecha entre la teoŕıa de existencia v́ıa el método directo y la
de condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado:
Teorema 4.1.1 Supongamos que L ∈ C1(RN × RN ;R) y satisface (Cp) para algún
p > 1. Entonces toda solución x̄ de (P) es Lipschitz, es decir, existe una constante
M0 ≥ 0 tal que
‖ ˙̄x(t)‖ ≤ M0 c.t.p. t ∈ [a, b].
La idea de la demostración es la siguiente: tomemos m < M dos constantes y
definamos los conjuntos
ℓm = {t ∈ [0, T ] | ‖ ˙̄x(t)‖ ≤ m}
LM = {t ∈ [0, T ] | ‖ ˙̄x(t)‖ ≥M}.
Intuitivamente, en ℓm la trayectoria x̄(t) se mueve “lentamente”mientras que en LM
lo hace más rápido. La idea es construir una trayectoria xM(t) que se mueva más
rápido que x̄(t) en ℓm y más lento que x̄(t) en LM , y que más aún
T∫
0
L(xM (t), ẋM(t))dt <
T∫
0
L(x̄(t), ˙̄x(t))dt
para M suficientemente grande, siempre que L1(LM ) > 0, donde L1 es la medida de
Lebesgue en R. Esta última desigualdad contradice la optimalidad de x̄, por lo que
necesariamente se tendrá L1(LM) = 0 para todo M ≥ M0 a partir de cierto M0, lo
que prueba el carácter Lipschitz de x̄.
4.2. Demostración del resultado de regularidad
Procederemos por etapas. Para simplificar, supondremos sin pérdida de generali-
dad que la condición de crecimiento (Cp) se tiene con a = 0 y b = 1.
23
24 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
Etapa 1. Escoger un valor para m.
Dado m > 0, tenemos que
mı́n(P) =
T∫
0
L(x̄, ˙̄x)dt =
∫
ℓm
L(x̄, ˙̄x)dt+
∫
[0,T ]\ℓm
L(x̄, ˙̄x)dt
≥
∫
[0,T ]\ℓm
‖ ˙̄x‖pdt ≥ L1([0, T ] \ ℓm)m
p = (T − L1(ℓm))m
p.
Luego
L1(ℓm) ≥ T −
mı́n(P)
mp
.
Tomando m suficientemente grande, podemos suponer que
L1(ℓm) ≥
T
2
. (4.1)
Etapa 2. Construcción de una reparametrización temporal.
Sea M > m, donde m es tal que se tiene (4.1). Definamos
σM : [0, T ] → [0, T ]
tal que σM(0) = 0 y además
dσM
dt
(t) = ‖ ˙̄x(t)‖ en LM ,
dσM
dt
(t) = 1 en [0, T ] \ (LM ∪ ℓm),
dσM
dt
(t) = rM en ℓm,
donde rM > 0 se ajusta de modo tal que σM (T ) = T . Más precisamente
T = σM(T ) = 0 +
T∫
0
dσM
dt
(t)dt
=
∫
LM
‖ ˙̄x(t)‖dt+
∫
[0,T ]\(LM∩ℓm)
dt+ rM
∫
ℓm
dt.
Como T =
T∫
0
1dt, deducimos que
∫
LM
(‖ ˙̄x(t)‖ − 1)dt+
∫
ℓm
(rM − 1)dt = 0,
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 25
es decir
∫
LM
(‖ ˙̄x(t)‖ − 1)dt = (1 − rM)L1(ℓm).
Podemos suponer queM > 1 y, como ‖ ˙̄x(t)‖ ≥M en LM tenemos que necesariamente,
rM < 1
Por otra parte, si M ր +∞ entonces
∫
LM
(‖ ˙̄x(t)‖ − 1)dt ց 0 (de otra forma, ˙̄x /∈
L1(0, T ;RN)). Luego, tomando M > m suficientemente grande podemos suponer que
1
2
≤ rM < 1.
Etapa 3. Definición de xM y consecuencias.
Definamos
xM (s) = x̄(σ
−1
M (s)), s ∈ [0, T ].
Como x̄ es óptimo, sabemos que
T∫
0
L(xM , ẋM)ds ≥
T∫
0
L(x̄, ˙̄x)dt. (4.2)
Ahora bien
dxM
ds
(s) =
dx̄
dt
(σ−1M (s))
dσ−1M
ds
(s).
Sea el cambio de variables
σM (t) = s,
de modo tal que
dσ−1M
ds
(s) =
1
dσM
dt
(t)
.
Aśı
T∫
0
L(xM , ẋM)ds =
T∫
0
L(xM (s),
dx̄
dt
(σ−1M (s))/
dσM
dt
(σ−1M (s)))ds
=
T∫
0
L(x̄(t),
dx̄
dt
(t)/
dσM
dt
(t))
dσM
dt
(t)dt
=
∫
ℓm
L(x̄,
1
rM
˙̄x)rMdt+
∫
LM
L(x̄,
˙̄x
‖ ˙̄x‖
)‖ ˙̄x‖dt+
∫
[0,T ]\(LM∩ℓm)
L(x̄, ˙̄x)dt.
26 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
Usando (4.2), deducimos que
∫
ℓm
[L(x̄,
1
rM
˙̄x)rM − L(x̄, ˙̄x)]dt+
∫
LM
[L(x̄,
˙̄x
‖ ˙̄x‖
)‖ ˙̄x‖ − L(x̄, ˙̄x)]dt ≥ 0.
Como x̄ es acotada (por ser continua en [0, T ]) y ‖
˙̄x
‖ ˙̄x‖
‖ = 1, entonces L(x̄,
˙̄x
‖ ˙̄x‖
) es aco-
tada superiormente (pues L es continua), lo que junto con la condición de crecimiento
L(x, y) ≥ ‖y‖p nos da
∫
ℓm
[L(x̄,
1
rM
˙̄x)rM − L(x̄, ˙̄x)]dt+
∫
LM
[C‖ ˙̄x‖ − ‖ ˙̄x‖p]dt ≥ 0
para alguna constante C > 0. Por otra parte, como L es de clase C1 tenemos
que es localmente Lipschitz, y en particular ∀R > 0, ∃KR, ∀(x, y) ∈ R
N × RN ,
máx{‖x‖, ‖y‖, ‖y′‖} ≤ R ⇒ |L(x, y)−L(x, y′)| ≤ KR‖y− y
′‖. Luego, como ‖ ˙̄x(t)‖ ≤
m en ℓm, se tiene que tomando x = x̄(t) e y = ˙̄x(t) con t ∈ ℓm entonces
L(x,
1
rM
y)rM − L(x, y) ≤ L(x,
1
rM
y) − L(x, y) ≤
KR
rM
(1 − rM)‖y‖,
↑
rM < 1
para R ≥ máx{máx{x̄(t) | t ∈ [0, T ]}, 2m}. Deducimos que
∫
ℓm
D(1 − rM)dt+
∫
LM
[C‖ẋ‖ − ‖ẋ‖p]dt ≥ 0
para algunas constantes C,D > 0. Pero de la etapa 2, sabemos que
(1 − rM)L1(ℓm) =
∫
LM
(‖ ˙̄x‖ − 1)dt,
y en consecuencia, para todo M suficientemente grande,
∫
LM
[D(‖ ˙̄x(t)‖ − 1) + C‖ ˙̄x(t)‖ − ‖ ˙̄x(t)‖p]dt ≥ 0. (4.3)
Etapa 4. Conclusión.
Como p > 1, la función
Φ(u) = (C +D)u−D − up, u ≥ 0,
satisface
Φ(u) < 0
para todo u suficientemente grande, digamos
u ≥M0
4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 27
para una constante M0 ≥ 0, y dado que ‖ ˙̄x‖ ≥ M en LM , entonces
∫
LM0
Φ(‖ ˙̄x(t)‖)dt < 0
siempre que L1(LM0) > 0, lo que contradeceŕıa la desigualdad (4.3). Por lo tanto,
∀M ≥M0,L1(LM) = 0 y en particular ‖ ˙̄x(t)‖ ≤M0 c.t.p. t ∈ [0, T ].
28 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS
Caṕıtulo 5
Ecuaciones de Euler-Lagrange:
caso Lipschitz
En virtud de la regularidad Lipschitz de las soluciones óptimas de (P) establecida
en el caṕıtulo 4, es posible obtener la versión generalizada de las ecuaciones de Euler-
Lagrange.
5.1. Ecuaciones de Euler-Lagrange generalizadas
Teorema 5.1.1 Bajo las hipótesis del teorema 4.1.1, si x̄ es una solución de (P)
entonces la función
[0, T ] ∋ t 7→
∂L
∂y
(x̄(t), ˙̄x(t))
es diferencible c.t.p. en [0, T ] y más aún
d
dt
∂L
∂y
(x̄, ˙̄x) =
∂L
∂x
(x̄, ˙̄x) c.t.p. en [0, T ]
Demostración. Definamos las funciones
f(t) =
∂L
∂y
(x̄(t), ˙̄x(t)),
g(t) =
∂L
∂x
(x̄(t), ˙̄x(t)).
Como L es de clase C1 y x̄ es Lipschitz continua en virtud del teorema 4.1.1, dedu-
cimos que f y g son funciones acotadas.
Consideremos una función lipschitziana h : [0, T ] → R de la forma
h(t) =
∫ t
0
ψ(t)dt
con ψ ∈ L∞(0, T ;RN) tal que
T∫
0
ψ(t)dt = 0 (5.1)
29
30 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
de modo tal que h(0) = h(T ) = 0. Razonando de manera análoga a lo realizado en la
sección 3.1 para obtener (3.2), peroahora asumiendo sólo lipschitzianidad de x̄ y h,
tenemos que
t∫
0
[f(t)ḣ(t) + g(t)h(t)]dt = 0. (5.2)
Esto último se puede justificar utilizando el siguiente lema técnico de la teoŕıa de la
medida que enunciamos sin demostración (se trata de una consecuencia relativamente
sencilla del teorema de convergencia dominada):
Lema 5.1.1 Sea ϕ : Rk × R→ R una función tal que:
(i) ∀λ ∈ R, ϕ(·, λ) ∈ L1(Rk).
(ii) ∀ξ ∈ Rk, ϕ(ξ, ·) ∈ C1(R).
(iii) ∃g ∈ L1(Rk), ∀λ ∈ R,
∣∣∣∣
∂ϕ
∂λ
(ξ, λ)
∣∣∣∣ ≤ g(x).
Entonces, la función
Φ(λ) =
∫
Rk
ϕ(ξ, λ)dξ
es de clase C1 en R y más aún
Φ′(λ) =
∫
Rk
∂ϕ
∂λ
(ξ, λ)dξ.
Definamos
A(t) = f(t) −
t∫
0
g(s)ds.
Una integración por partes en (5.2) proporciona
t∫
0
A(t)ḣ(t)dt = 0,
o equivalentemente, para todo ψ ∈ L∞(0, T ;RN) que satisface (5.1), se tiene
T∫
0
A(t)ψ(t)dt = 0.
Sean ahora ψ ∈ L2(0, T ;RN) y ψn
L2
−→ψ con ψn ∈ L
∞(0, T ;RN) tales que
T∫
0
ψn(t)dt = 0.
Entonces ψ satisface (5.1) y además, dado que A ∈ L∞(0, T ;RN) ⊆ L2(0, T ;RN), se
tiene
T∫
0
A(t)ψ(t)dt = 〈A,ψ〉L2 = ĺım
n→∞
〈A,ψn〉L2 = ĺım
n→∞
T∫
0
A(t)ψn(t)dt = 0.
5.2. EJEMPLO: DINÁMICA DE UNA PARTÍCULA 31
Por densidad de L∞(0, T ;RN) en L2(0, T ;RN), deducimos fácilmente que
∀ψ ∈ L2(0, T ;RN),
T∫
0
ψ(t)dt = 0 ⇒
T∫
0
A(t)ψ(t)dt = 0.
Es decir,
∀ψ ∈ L2(0, T ;RN), 〈1, ψ〉L2 = 0 ⇒ 〈A,ψ〉L2 = 0.
Esto significa que A ⊥ L2/R, es decir, existe ĉ ∈ R tal que
A(t) = ĉ c.t.p. t ∈ [0, T ],
que era exactamente lo que queŕıamos demostrar.
5.2. Ejemplo: dinámica de una part́ıcula
Dado m > 0, consideremos el problema
(Pm) mı́n



T∫
0
[m
2
‖ẋ(t)‖2 − U(x(t))
]
dt
∣∣∣ x ∈ AC(0, T ;R3), x(0) = x0, x(T ) = x1


 .
Supongamos que U ∈ C1(R3) y que además
sup
x∈R
U(x) < +∞.
Aśı,
L(x, y) =
m
2
‖y‖2 − U(x) ≥
m
2
‖y‖2 − supU,
de modo que se satisface la condición de crecimiento (Cp) con p = 2. Deducimos que
(Pm) admite una solución x̄ ∈ AC(0, T ;R
3) y, más aún, esta solución es Lipschitz y
satisface la ecuación de Euler-Lagrange
m
d
dt
ẋ(t) = −∇U(x(t)) c.t.p. t ∈ [0, T ]
Como x̄ es continua y U ∈ C1(R3), el lado derecho de esta ecuación evaluado en x̄
es continuo con respecto a t y en consecuencia x̄ ∈ C2(0, T ;R3) y además satisface el
problema diferencial de segundo orden con condiciones de borde
{
mẍ+ ∇U(x) = 0,
x(0) = x0, x(T ) = x1.
Si U ∈ Ck(R3) entonces se deduce recursivamente que x̄ ∈ Ck+1(0, T ;R3). El problema
diferencial correspondiente al movimiento de una part́ıcula de masa m sometida a un
campo de fuerzas F = −∇U asociado al potencial U . En este contexto, a la función
L(x, ẋ) =
m
2
‖ẋ(t)‖2 − U(x(t))
se le llama lagrangiano, y el hecho que la trayectoria de la part́ıcula sea una solución
de (Pm) se conoce como el principio de mı́nima acción, entendiendo por “acción” la
integral del lagrangiano.
32 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ
Caṕıtulo 6
Ejercicios
1. Convergencia variacional y el método directo. Sea (X, ‖ · ‖) un espacio de Ba-
nach reflexivo. Diremos que una sucesión de funciones Fn : X → R converge
variacionalmente a una función F : X → R, lo que escribiremos F = V - ĺım
n→∞
Fn,
si se satisfacen las dos condiciones siguientes:
(V1) ∀x ∈ X, ∀xn ⇀ x, F (x) ≤ ĺım inf
n→∞
Fn(xn).
(V2) ∀x ∈ X, ĺım sup
n→∞
Fn(x) ≤ F (x).
(a) Pruebe que (V2) implica que ĺım sup
n→∞
(́ınf
X
Fn) ≤ ı́nf
X
F.
Considere la siguiente condición de crecimiento uniforme para la sucesión (Fn):
∃α ∈ R, ∃β > 0, ∀n ∈ N, ∀x ∈ X,Fn(x) ≥ α + β‖x‖. (6.1)
(b) Pruebe que bajo (6.1), existe una sucesión acotada (xn) ⊂ X tal que
ĺım sup
n→∞
Fn(xn) ≤ ĺım sup
n→∞
(́ınf
X
Fn).
(c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V - ĺım
n→∞
Fn entonces
existe x̄ ∈ X tal que F (x̄) = mı́n
X
F .
2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capital
y el consumo de un individuo en el instante t respectivamente. Asuma que la
producción de capital está dada por la función f(x) = δx con δ > 0, mientras
que la función de utilidad del individuo está dada por u(c) = −λ(c − c∗)2 con
λ, c∗ > 0. Los parámetros δ, λ, c∗ > 0 son conocidos. En un horizonte [0, T ], el
individuo busca maximizar la utilidad esperada, esto es
(P)



máx
T∫
0
u(c(t))dt
ẋ(t) = f(x(t)) − c(t)
x(0) = x0 > 0 (capital inicial), x(T ) = 0 (capital final nulo)
33
34 CAPÍTULO 6. EJERCICIOS
(a) Pruebe que (P) admite al menos una solución x ∈ AC(0, T ;R). Ind.: puede
suponer que x(t) es acotado para toda función factible para (P).
(b) Deduzca que la solución x es Lipschitz continua.
(c) Calcule x.
Bibliograf́ıa
El lector interesado en profundizar los conceptos y métodos expuestos brevemente
en estos apuntes puede consultar la amplia bibliograf́ıa que existe al respecto.
Son muchos los autores que han escrito libros sobre problemas variacionales del
cálculo de variaciones, métodos directos para establecer existencia, problemas de
semicontinuidad inferior, aplicaciones a ecuaciones diferenciales y a problemas de
control óptimo, etc. La siguiente es sólo una lista parcial de textos recomendables
que abordan estos temas:
[Att84] Attouch, H., Variational Convergence for Functions and Operators, Applica-
ble Mathematics Series, Pitman (Advanced Publishing Program), Boston, MA,
1984.
[BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, Oxford
Lecture Series in Mathematics and its Applications, 12, The Clarendon Press,
Oxford University Press, New York, 1998.
[But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the
Calculus of Variations, Pitman Research Notes in Mathematics Series, 207, Long-
man Scientific & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989.
[CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus
of Variations. Representation, Relaxation, and Homogenization. Chapman &
Hall/CRC Monographs and Surveys in Pure and Applied Mathematics, 125.
Chapman & Hall/CRC, Boca Raton, FL, 2002.
[Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary
differential equations, Applications of Mathematics, 17, Springer-Verlag, New
York, 1983.
[Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mat-
hematical Sciences, 78, Springer-Verlag, Berlin, 1989.
[Dal93] Dal Maso, G., An Introduction to Γ-convergence, Birkhäuser, Boston, 1993.
[Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse der
Mathematik und ihrer Grenzgebiete (3) [Results in Mathematics and Related
Areas (3)], 19, Springer-Verlag, Berlin, 1990.
[EkT99] Ekeland, I., Témam, R., Convex Analysis and Variational Problems, (tra-
ducción del francés), versión corregida de la edición en inglés de 1976, Classics
in Applied Mathematics, 28, Society for Industrial and Applied Mathematics
(SIAM), Philadelphia, PA, 1999.
35
36 BIBLIOGRAFÍA
[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En-
glewood Cliffs, N.J., 1963.
[GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian
formalism. II. The Hamiltonian formalism, Grundlehren der Mathematischen
Wissenschaften [Fundamental Principles of Mathematical Sciences], 310-311,
Springer-Verlag, Berlin, 1996.
[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh-
ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York,
Inc., New York, 1966.
[Str00] Struwe, M., Variational Methods. Applications to nonlinear partial differential
equations and Hamiltonian systems. Third edition, Ergebnisse der Mathematik
und ihrer Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics
[Results in Mathematics and Related Areas. 3rd Series. A Series of Modern Sur-
veys in Mathematics], 34, Springer-Verlag, Berlin, 2000.

Continuar navegando