Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
UNIVERSIDAD DE CHILE facultad de ciencias fisicas y matematicas departamento de ingenieria matematica II ESCUELA DE VERANO MECESUP 2002 CALCULO DE VARIACIONES Felipe Alvarez (P) mı́n T∫ 0 L(x(t), ẋ(t))dt, x(0) = x0, x(T ) = x1. Diciembre 2002 2 Índice general 1. Introducción 5 1.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 5 1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3. Definición de solución óptima . . . . . . . . . . . . . . . . . . . . . . 7 1.4. Problemas variacionales sin solución . . . . . . . . . . . . . . . . . . . 8 2. El método directo del cálculo de variaciones 13 2.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2. La condición de crecimiento y compacidad . . . . . . . . . . . . . . . 13 2.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . 16 2.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . 18 3. Ecuaciones de Euler-Lagrange: caso diferenciable 21 3.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . 21 3.2. Resultados técnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.3. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 4. Regularidad de las soluciones óptimas 27 4.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . 27 4.2. Demostración del resultado de regularidad . . . . . . . . . . . . . . . 28 5. Ecuaciones de Euler-Lagrange: caso Lipschitz 33 5.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . 33 5.2. Ejemplo: dinámica de una part́ıcula . . . . . . . . . . . . . . . . . . . 35 6. Ejercicios 37 Bibliograf́ıa 39 3 4 ÍNDICE GENERAL Caṕıtulo 1 Introducción Estos apuntes tienen como objetivo introducir los conceptos y métodos básicos del cálculo de variaciones a través del estudio de la siguiente clase particular de problemas variacionales: (P) mı́n T∫ 0 L(x(t), ẋ(t))dt x(0) = x0, x(T ) = x1, donde L : RN ×RN → R es una función suficientemente regular. Estudiaremos tanto la existencia y regularidad de las soluciones de (P) como las condiciones necesarias de primer orden que estas soluciones deben satisfacer, con un énfasis especial en las herramientas del análisis funcional que son útiles para un tratamiento riguroso de la teoŕıa. 1.1. Funcionales y problemas variacionales Diversos problemas en matemáticas puras y aplicadas consisten en determinar una función que minimice algún criterio, costo o enerǵıa, sujeto a ciertas restricciones. T́ıpicamente, en estos problemas el criterio a optimizar viene dado por una corres- pondencia que a cada función perteneciente a alguna clase o conjunto de funciones le asigna un único número real, el cual tiene alguna interpretación geométrica, f́ısica o económica. Llamaremos funcional a toda correspondencia de este tipo y problema variacional al problema de optimización asociado. Para dar un contexto más preciso a lo anterior, denotemos por C1(a, b;RN) la clase de todas las funciones x : [a, b] → RN que son continuamente diferenciables en el intervalo [a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo J : C1(a, b;RN) → R x 7→ J(x) = b∫ a L(x(t), ẋ(t))dt, 5 6 CAPÍTULO 1. INTRODUCCIÓN para alguna función L : RN ×RN → R (x, y) 7→ L(x, y), la que supondremos suficientemente regular (al menos continua). 1.2. Ejemplos Ejemplo 1.2.1 (Camino más corto) Encontrar la curva plana más corta que une dos puntos A = (x0, y0) y B = (x1, y1), i.e. encontrar la curva y = y(x) que minimice el funcional J(y) = x1∫ x0 √ 1 + y′(x)2dx bajo la restricción y(x0) = y0, y(x1) = y1. Ejemplo 1.2.2 (Braquistócrona) Partiendo de un punto A = (x0, y0), una part́ıcu- la con peso se desliza bajo la influencia de la gravedad sobre una curva que une A con otro punto B = (x1, y1) tal que y0 > y1. El tiempo que le toma a la part́ıcula recorrer este camino depende de la curva recorrida y por lo tanto la correspondencia que a cada curva regular le asocia el tiempo necesario para recorrerla es un funcional. La curva de tiempo mı́nimo se conoce como la braquistócrona. Para modelar este pro- blema, sea y ∈ C1(x0, x1) una función de modo tal que la trayectoria de la part́ıcula satisface y(t) = y(x(t)). Tenemos que la rapidez de la part́ıcula satisface v(t) = ds dt = ds dx · dx dt = √ 1 + y′2 dx dt . Por otra parte, suponiendo que la part́ıcula inicia su movimiento desde el reposo (v(0) = 0) tenemos que por conservación de la enerǵıa: 1 2 mv2 +mgy = mgy0 ⇒ v = √ 2g(y0 − y) Aśı, al menos formalmente, dt = √ 1 + y′2√ 2g(y0 − y) dx, de modo que el tiempo de recorrido a minimizar está dado por T = x1∫ x0 √ 1 + y′2√ 2g(y0 − y) dx. sujeto a y(x0) = y0, y(x1) = y1. 1.3. DEFINICIÓN DE SOLUCIÓN ÓPTIMA 7 Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op- ción, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y el consumo del individuo en el instante t respectivamente. Suponemos además que una función f = f(x) representa la producción de capital y una función u = u(c), llamada función de utilidad, describe el beneficio instantáneo del individuo ante un consumo dado por c. Luego, en un horizonte [0, T ], el individuo busca maximizar la utilidad esperada, esto es máx T∫ 0 u(c(t))dt dx dt (t) = f(x(t)) − c(t) x(0) = x0 (capital inicial) x(T ) = x1 (capital final) o equivalentemente mı́n T∫ 0 −u(f(x(t)) − ẋ(t))dt x(0) = x0, x(T ) = x1. 1.3. Definición de solución óptima Nos concentraremos en problemas variacionales autónomos, es decir, problemas donde la variable independiente, digamos t, no aparece expĺıcitamente en el criterio a minimizar. Más precisamente, consideraremos un problema del tipo (P) mı́n T∫ 0 L(x(t), ẋ(t))dt x(0) = x0, x(T ) = x1, donde L : RN × RN → R es una función continua. Para esta clase de problemas no siempre es posible asegurar la existencia de so- luciones en C1(0, T ;RN). Trabajaremos en la clase AC(0, T ;RN) de las funciones absolutamente continuas definidas en el intervalo [0, T ] y a valores en RN , es decir AC(0, T ;RN) = {x : [0, T ] → RN |∃y ∈ L1(0, T ;RN), x(t) = x0 + ∫ t 0 y(s)ds}. Dada x ∈ AC(0, T ;RN), denotamos simplemente por ẋ a la función y ∈ L1(0, T ;RN) correspondiente. Evidentemente, C1(0, T ;RN) AC(0, T ;RN). Definamos ı́nf(P) = ı́nf{ ∫ T 0 L(x(t), ẋ(t))dt|x ∈ AC(0, T ;RN), x(0) = x0, x(T ) = x1}. 8 CAPÍTULO 1. INTRODUCCIÓN Definición 1.3.1 Toda función x ∈ AC(0, T ;RN) tal que x(0) = x0 y x(T ) = x1 se dice que es factible para (P). Se dice que x̄ ∈ AC(0, T ;RN) es una solución de (P) si junto con ser factible satisface T∫ 0 L(x̄(t), ˙̄x(t))dt = ı́nf(P). Si además x̄ ∈ C1(0, T ;RN), diremos que x̄ es una solución regular de (P). Se tiene que ı́nf(P) < +∞ y más aún, tomando la función factible x̂(t) = x0 + t T (x1 − x0), se deduce que ı́nf(P) ≤ T sup x∈[x0,x1] L(x, (x1 − x0)/T ), y este supremo no sólo es finito sino que además se alcanza, de modo que se trata de un máximo, en virtud de la continuidad de x 7→ L(x, (x1 − x0)/T ). Cuando ı́nf(P) ∈ R, sin condiciones adicionales sobre L, el problema (P) puede no tener soluciones óptimas. A continuación veremos dos ejemplos en este sentido. 1.4. Problemas variacionales sin solución Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional (P1) mı́n 1∫ 0 [ 1 2 x(t)2 + |ẋ(t)|]dt x(0) = 0, x(1) = 1 Aqúı, N = 1 y L(x, y) = 1 2 x2 + |y|. Notemos que para cada función factible se tiene 1∫ 0 ẋ(t)dt = x(1) − x(0) = 1, y en consecuencia 1∫ 0 |ẋ(t)|dt ≥ 1. Por otra parte, 1∫ 0 x(t)2dt ≥ 0 y más aún, dado que x es continua y x(1) = 1 > 0, necesariamente 1∫ 0 x(t)2dt > 0. 1.4. PROBLEMAS VARIACIONALES SIN SOLUCIÓN 9 En conclusión,para cada función factible, 1∫ 0 [ 1 2 x(t)2 + |ẋ(t)|]dt > 1, (1.1) y por lo tanto ı́nf(P1) ≥ 1. Veremos que ı́nf(P1) = 1, lo que junto con (1.1) prueba que (P1) no admite solución. Con este fin, consideremos la sucesión xn ∈ AC(0, 1;R) definida por xn(t) = 0 si 0 ≤ t ≤ 1 − 1 n , n(t− 1 + 1 n ) si 1 − 1 n ≤ t ≤ 1. Tenemos que para todo n ≥ 1, xn(0) = 0 y xn(1) = 1. Más aún, 1∫ 0 L(xn(t), ẋn(t))dt = 1∫ 1−1/n 1 2 n2(t− 1 + 1 n )2dt+ 1∫ 1− 1 n ndt = n2 6 (t− 1 + 1 n )3 ∣∣∣∣ t=1 t=1−1/n + 1 = 1 6n + 1 → 1 En conclusión, ı́nf(P1) = 1 y este valor no es alcanzado. El ejemplo 1.4.1 es un caso t́ıpico de un fenómeno de concentración: puntualmente la sucesión minimizante converge xn(t) −−→ n→∞ { 0 si 0 ≤ t < 1, 1 si t = 1, pero el ĺımite no es continuo de modo que no pertenece a AC(0, 1). Finalmente, notemos que L(x, ẋ) = 1 2 x + |ẋ| tiene un crecimiento lineal en ẋ. Veremos que en cierto sentido, esta es la razón por la cual (P1) no admite solución. Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacional dado por (P2) mı́n 1∫ 0 [ 1 2 x(t)2 + (1 − ẋ(t)2)2]dt x(0) = 0 = x(1). Nuevamente N = 1, y tenemos L(x, y) = 1 2 x2 + (1 − y2)2. Observemos que en este caso L(x, y) crece superlinealmente en y, más precisamente, y 7→ L(x, y) se comporta como como y4 cuando |y| → +∞. 10 CAPÍTULO 1. INTRODUCCIÓN Obviamente, ı́nf(P2) ≥ 0. Dado n ≥ 1, consideremos la función definida por xn(t) = (−1) k ( 1 2n − |t− (2k + 1) 2n | ) si |t− 2k + 1 2n | ≤ 1 2n , 0 ≤ k ≤ n− 1. Notemos que xn(0) = xn(1) = 0, ẋn(t) = ±1 y |xn(t)| ≤ 1 2n . En particular, xn(t) → 0 uniformemente en [0, 1]. Tenemos que 1∫ 0 [ 1 2 xn(t) 2 + (1 − ẋn(t) 2)2︸ ︷︷ ︸ 0 ]dt = 1∫ 0 1 2 xn(t) 2dt = n ∫ 1 2n 0 t2dt = n 3 t3| t= 1 2n t=0 = n 3 × 1 8n3 = 1 24n2 → 0. Por lo tanto, ı́nf(P2) = 0. Si este valor fuese alcanzado por una función x̄ en AC(0, 1) entonces se tendŕıa 0 = 1∫ 0 [ 1 2 x̄(t)2 + (1 − ˙̄x(t)2)2]dt ⇒ x̄(t) = 0 c.t.p. t ∈ [0, 1] ∧ | ˙̄x(t)| = 1 c.t.p. t ∈ [0, 1] lo que es imposible. En consecuencia, (P2) no admite solución. El ejemplo 1.4.2 ilustra un fenómeno de oscilación. Observemos que la función L(x, y) no es convexa en y; de hecho, y 7→ L(x, y) tiene dos mı́nimos locales estrictos en y = −1 e y = 1. Intuitivamente, la sucesión minimizante (ver la definición 2.1.1) es tal que ẋn oscila entre ambos valores mı́nimos, lo que explicaŕıa la no existencia de soluciones. En el siguiente caṕıtulo veremos que para asegurar la existencia de soluciones, junto con cierta regularidad de L(x, y), bastará con suponer sobre y 7→ L(x, y): Una condición de crecimiento. Una condición de convexidad. Caṕıtulo 2 El método directo del cálculo de variaciones 2.1. Sucesiones minimizantes Definición 2.1.1 Una sucesión (xn) ⊂ AC(0, T ;R N) se dice sucesión minimizante para (P) si xn(0) = x0, xn(T ) = x1 y se tiene ĺım n→+∞ T∫ 0 L(xn(t), ẋn(t))dt = ı́nf(P). Notemos que siempre existe una sucesión minimizante. Para establecer la existen- cia de soluciones consideraremos la siguiente estrategia: tomar una sucesión minimi- zante y probar que, pasando a una subsucesión, converge a una solución. Para poder extraer una subsucesión convergente de una sucesión minimizante, necesitamos una propiedad de compacidad. 2.2. La condición de crecimiento y compacidad Dada una constante p ∈ (1,+∞), supondremos que L(x, y) satisface la siguiente condición de crecimiento: (Cp) Existen constantes a ∈ R y b > 0 tales que ∀(x, y) ∈ RN × RN , L(x, y) ≥ a+ b‖y‖p. Dado que p > 1, se dice que el crecimiento de y 7→ L(x, y) es superlineal. El ca- so p = +∞ puede permitirse, significando que existe una constante C > 0 tal que ‖y‖ ≤ C, lo que se interpreta como una restricción sobre ẋ impĺıcita en la definición de L. Sin embargo, para simplificar la exposición nos restringiremos al caso p ∈ (1,+∞). 11 12 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES Notemos que la condición de crecimiento (Cp) permite asegurar que ı́nf(P) ∈ R pues de ésta se deduce que ı́nf(P) ≥ aT > −∞, y ya sab́ıamos que ı́nf(P) < +∞. Lema 2.2.1 Bajo (Cp), si (xn) es una sucesión minimizante para (P) entonces (ẋn) es acotada en Lp(0, T ;RN), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N, ‖ẋn‖Lp ≤ C. Demostración. Sin pérdida de generalidad podemos suponer que ∀n ≥ 1, T∫ 0 L(xn(t), ẋn(t))dt ≤ ı́nf(P) + 1. Por (Cp), aT + b ∫ T 0 ‖ẋn(t)‖ pdt ≤ ı́nf(P) + 1. Aśı ‖ẋn‖ p Lp ≤ ı́nf(P) + 1 − aT b =: K es decir ‖ẋn‖Lp ≤ K 1/p. Proposición 2.2.1 Supongamos que se tiene (Cp). Si (xn) es una sucesión minimi- zante para (P) entonces existe una función x̄ ∈ AC(0, T ;RN), factible para (P), y una subsucesión (xnk) tales que: (i) xnk → x̄ uniformemente en [0, T ]. (ii) ẋnk ⇀ ˙̄x débilmente en L p(0, T ;RN). Demostración. Dividimos la demostración en dos etapas. Etapa 1. Definición de x̄. Como p ∈ (1,+∞), Lp(0, T ;RN) resulta ser una espacio de Banach reflexivo y por lo tanto la bola unitaria es débilmente compacta. Luego, por el lema 2.2.1, existe una subsucesión ẋnk tal que ẋnk ⇀ ȳ cuando k → +∞ para algún ȳ ∈ Lp(0, T ;RN). Esto equivale a ∀ϕ ∈ Lq(0, T ;RN), 〈ẋk, ϕ〉Lp,Lq −−−→ k→+∞ 〈ȳ, ϕ〉Lp,Lq en R, donde q ∈ (1,+∞) satisface 1 p + 1 q = 1. Más expĺıcitamente, para todo ϕ ∈ Lq(0, T ;RN) se tiene T∫ 0 ẋnk(t)ϕ(t)dt→ T∫ 0 ȳ(t)ϕ(t)dt. 2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13 Es natural definir x̄ ∈ AC(0, T ;RN) por medio de x̄(t) = x0 + t∫ 0 ȳ(s)ds, (2.1) de modo tal que ȳ = ˙̄x c.t.p. en [0, T ]. Etapa 2. Convergencia uniforme. Comencemos por verificar la convergencia puntual de (xnk) hacia la función x̄ definida por (2.1). Dado t ∈ [0, T ] fijo, tenemos que xnk(t) = x0 + t∫ 0 ẋnk(s)ds = x0 + T∫ 0 ẋnk(s)1[0,t](s)ds = x0 + 〈ẋnk , 1[0,t]〉Lp,Lq , lo que junto con la convergencia débil de (ẋnk) a ȳ asegura que xnk(t) → x0 + 〈ȳ, 1[0,t]〉Lp,Lq = x0 + t∫ 0 ȳ(s)ds = x̄(t). Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probar que (xn) es equicontinua 1. Sean t1, t2 ∈ [0, T ] con t1 > t2. Escribamos xn(t2) − xn(t1) = t2∫ t1 ẋn(s)ds = T∫ 0 1[t1,t2](s)ẋn(s)ds. Por la desigualdad de Hölder y el lema 2.2.1 ‖xn(t2) − xn(t1)‖ ≤ ‖1[t1,t2]‖Lq‖ẋn‖Lp ≤ (t2 − t1) 1/qC, lo que prueba la equicontinuidad de la familia (xn). 2.3. Primer teorema de existencia: caso separable En esta sección suponemos que L(x, y) = g(x) + f(y), x, y ∈ RN , donde (a) f y g son continuas. (b) L satisface (Cp). 1El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la conver- gencia simple o puntual implica la uniforme. 14 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES (c) f es convexa. Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, es decir ı́nf x∈RN g(x) > −∞, y que f satisface (Cp). Teorema 2.3.1 Bajo las condiciones anteriores, (P) admite al menos una solución. Demostración. Sea (xn) una sucesión minimizante para (P). Por la proposición 2.2.1, es posible extraer una subsucesión (xnk) y encontrar x̄ ∈ AC(0, T ;R N) tales que x̄(0) = x0, x̄(T ) = x1 y xnk → x̄ uniformemente en [0, T ], ẋnk → ˙̄x débilmente en L p(0, T ;RN). Queremos probar que T∫ 0 L(x̄(t), ˙̄x(t))dt = T∫ 0 g(x̄(t))dt+ T∫ 0 f( ˙̄x(t))dt = ı́nf(P). Por la definición de sucesión minimizante, sabemos que T∫ 0 g(xnk(t))dt+ T∫ 0 f(ẋnk(t))dt = T∫ 0 L(xnk(t), ẋnk(t))dt→ ı́nf(P). De la convergencia uniforme de (xnk) y la continuidad de g deducimos que se tiene ĺım k→∞ T∫ 0 g(xnk(t))dt = T∫ 0 g(x̄(t))dt. Para estudiar la convergencia del segundo término, definamos F (y) = T∫ 0 f(y(t))dt, y ∈ Lp(0, T ;RN). (2.2) Notemos que por (Cp) necesariamente F (y) > −∞ para todo y ∈ L p(0, T ;RN); sin embargo, podŕıa tenerse F (y) = +∞ para algún y ∈ Lp(0, T ;RN) pues no hemos supuesto ningún tipo de comportamiento“por arriba”del integrando f(y). Proposición 2.3.1 Si f : RN → R es continua y acotada inferiormente (́ınf f > −∞) entonces la función F : Lp(0, T ;RN) → R ∪ {+∞} definida por (2.2) es se- micontinua inferiormente, es decir, para toda sucesión yn → y en L p(0, T ;RN) se tiene F (y) ≤ ĺım inf n→∞ F (yn). 2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15 Posterguemos por un momento la demostración de la proposición 2.3.1. Notemos que no podemos aplicar directamente este resultado a nuestro caso pues sólo tenemos ẋnk → ˙̄x débilmente en L p(0, T ;RN). Sin embargo, de la convexidad de f se deduce que F es una función convexa. Recordando que en un espacio de Banach reflexivo, las funciones convexas y semicontinuas inferiormente para la topoloǵıa fuerte también lo son para la topoloǵıa débil, deducimos que F es semicontinua inferiormente para la topoloǵıa débil en Lp(0, T ;RN). Por lo tanto, F ( ˙̄x) ≤ ĺım inf k→∞ F (ẋnk), y en consecuencia T∫ 0 g(x̄(t))dt+ T∫ 0 f( ˙̄x(t))dt ≤ ı́nf(P). Dado que x̄ es factible para (P), la otra desigualdad siempre se tiene, y entonces x̄ es solución de (P). Demostración de la proposición 2.3.1. Recordemos el siguiente resultado funda- mental de la teoŕıa de la medida: Lema 2.3.1 (Fatou) Sea fn : [0, T ] → R una sucesión de funciones medibles tal que fn ≥ 0 para todo n ≥ 0. Entonces ĺım inf n→∞ T∫ 0 fn(t)dt ≥ T∫ 0 ĺım inf n→∞ fn(t)dt. El lema de Fatou es válido si (fn) es acotada inferiormente de manera uniforme, i.e. ∃α ∈ R, ∀n ≥ 0, fn ≥ −α, pues basta aplicar el resultado anterior a f̄n = fn + α. Para probar la proposición 2.3.1, razonemos por contradicción. Supongamos que existe una sucesión (yn) ⊆ L p(0, T ;RN) que converge fuertemente a un y ∈ Lp(0, T ;RN) y que se tiene ĺım inf n→∞ F (yn) < F (y). (2.3) Podemos extraer una subsucesión (ynk) tal que ĺım k→∞ F (ynk) = ĺım infn→∞ F (yn). Dado que yn → y en L p(0, T ;RN), podemos extraer a su vez una nueva subsucesión (ynkj ) tal que ynkj (t) → y(t) para c.t.p. t ∈ [0, T ]. Sea fj(t) = f(ynkj (t)). Como ı́nf f > −∞, (fj) es acotada inferiormente. Además, fj(t) → f(y(t)) c.t.p. en [0, T ] en virtud de la continuidad de f . Luego F (y) = T∫ 0 f(y(t))dt = T∫ 0 ĺım j→∞ fj(t)dt ≤ ĺım inf j→∞ T∫ 0 fj(t)dt = ĺım inf j→∞ F (ynkj ) = ĺım k→∞ F (ynk) = ĺım inf n→∞ F (yn), donde la desigualdad se tiene por el lema de Fatou, contradiciendo aśı (2.3). 16 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES 2.4. Segundo teorema de existencia: caso regular Teorema 2.4.1 Supongamos que (a) L ∈ C(RN × RN ;R) y ∂L ∂yi ∈ C(RN × RN ;R). (b) L satisface (Cp). (c) y 7→ L(x, y) es convexa. Entonces (P) admite al menos una solución. Demostración. Por la proposición 2.2.1, sabemos que existe una sucesión minimi- zante (xn) para (P) y una función x̄ factible para (P) tales que (i) ĺım n→∞ T∫ 0 L(xn, ẋ) = ı́nf(P). (ii) ∃C ≥ 0 tal que ∀n ∈ N, ‖ẋn‖Lp ≤ C. (iii) xn → x̄ uniformemente en [0, T ] (iv) ẋn ⇀ ˙̄x débilmente en L p(0, T ;RN) Recordemos el siguiente resultado de la teoŕıa de la medida. Teorema 2.4.2 (Lusin) Sea f ∈ L1(0, T ;RN). Entonces, ∀δ > 0, ∃K ⊆ [0, T ] com- pacto tal que: (1) L1([0, T ] \ K) ≤ δ, donde L1 es la medida de Lebesgue en R. (2) f es continua en K. Sin pérdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reempla- zar L(x, y) por L(x, y)−a donde a es la constante que aparece en (Cp)). Supongamos que T∫ 0 L(x̄, ˙̄x)dt < +∞. Luego, µ(A) = ∫ A L(x̄, ˙̄x)dt es una medida positiva y finita sobre los borelianos que resulta ser absolutamente continua con respecto a L1. Por el teorema de Lusin, dado ε > 0 existe un compacto K ⊆ [0, T ] tal que x̄ y ˙̄x son continuas en K y además ∫ K L(x̄, ˙̄x)dt ≥ T∫ 0 L(x̄, ˙̄x)dt− ε. 2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17 (en el caso ∫ K L(x̄, ˙̄x)dt = +∞, para cada M > 0 podemos escoger K de modo tal que ∫ K L(x̄, ˙̄x)dt ≥ M). Por convexidad de y 7→ L(x, y), tenemos que ∫ K L(xn, ẋn)dt ≥ ∫ K [L(xn, ˙̄x) + ∂L ∂y (xn, ˙̄x)(ẋn − ˙̄x)]dt Luego ∫ K L(xn, ẋn)dt ≥ ∫ K [L(xn, ˙̄x) + ∂L ∂y (x̄, ˙̄x)(ẋn − ˙̄x) + ( ∂L ∂y (xn, ˙̄x) − ∂L ∂y (x̄, ˙̄x))(ẋn − ˙̄x)]dt Estudiemos la convergencia de cada uno de estos términos. Como xn → x̄ uniforme- mente y L es continuo, tenemos que ĺım n→∞ ∫ K L(xn, ˙̄x) = ∫ K L(x̄, ˙̄x). Por otra parte, la convergencia débil ẋn ⇀ ˙̄x junto con la continuidad de ∂L ∂y y la de x̄ y ˙̄x en K permiten asegurar que ĺım n→∞ ∫ K ∂L ∂y (x̄, ˙̄x)(ẋn − ˙̄x) = 0. Finalmente, de la convergencia uniforme de xn → x̄ junto con el acotamiento uniforme de las normas Lp de ẋn y ˙̄x, y la continuidad de ∂L ∂y , se deduce que ĺım n→∞ ∫ K ( ∂L ∂y (xn, ˙̄x) − ∂L ∂y (x̄, ˙̄x))(ẋn − ˙̄x) = 0. Luego ı́nf(P) = ĺım n→∞ T∫ 0 L(xn, ẋn)dt ≥ ĺım inf n→∞ ∫ K L(xn, ẋn)dt ≥ ∫ K L(x̄, ˙̄x)dt ≥ T∫ 0 L(x̄, ˙̄x) − ε. Como ε > 0 es arbitrario, se deduce el resultado. 18 CAPÍTULO 2. EL MÉTODO DIRECTO DEL CÁLCULO DE VARIACIONES Caṕıtulo 3 Ecuaciones de Euler-Lagrange: caso diferenciable 3.1. Condiciones necesarias de primer orden Una vez demostrada la existencia de una solución, nos interesa poder caracterizarla mediante una ecuación, ya sea con el fin de obtener un método para calcularla o bien para deducir más propiedades sobre la solución a partir de la ecuación. El objetivo de este caṕıtulo es probar el siguiente resultado: Teorema 3.1.1 Supongamos que L ∈ C1(RN × RN ;R). Si x̄ ∈ C1(0, T ;RN) es una solución regular de (P) entonces ∂L ∂y (x̄(t), ˙̄x(t)) es diferenciable y más aún d dt ∂L ∂y (x̄(t), ˙̄x(t)) = ∂L ∂x (x̄(t), ˙̄x(t)), t ∈ [0, T ]. (3.1) Observemos que (3.1) es una ecuación diferencial de segundo orden para x̄, la cual se conoce como la ecuación de Euler-Lagrange de (P). Para establecer este resultado, la idea es “perturbar” la solución x̄. Consideremos una función h ∈ C1(0, T,RN) tal que h(0) = h(T ) = 0. Definamos Φ(λ) = J(x̄+ λh), λ ∈ R. donde J(x) = T∫ 0 L(x(t), ẋ(t))dt. Observemos que la función xλ(t) = x̄(t) + λh(t) 19 20CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE es factible para el problema (P) pues xλ ∈ C 1(0, T ;RN), xλ(0) = x̄(0) = 0 y xλ(T ) = x̄(T ) = x1. De este modo, por optimalidad de x̄ para (P), deducimos que ∀λ ∈ R, Φ(0) ≤ Φ(λ), de modo que 0 es un mı́nimo de Φ. Si Φ es diferenciable entonces debe satisfacerse la condición necesaria de optimalidad Φ′(0) = 0. Como L, x̄ y h son de clase C1, tenemos que Φ′(0) = d dλ J(x̄+ λh)|λ=0 = d dλ T∫ 0 L(xλ(t), ẋλ(t))dt|λ=0 = T∫ 0 d dλ [L(x̄(t) + λh(t), ˙̄x(t) + λḣ(t))]|λ=0dt = T∫ 0 [ ∂L ∂x (x̄(t), ˙̄x(t))h(t) + ∂L ∂y (x̄(t), ˙̄x(t))ḣ(t)]dt. Luego, para todo h ∈ C1(0, T ;RN) tal que h(0) = h(T ) = 0 se tiene T∫ 0 [ ∂L ∂x (x̄(t), ˙̄x(t))h(t) + ∂L ∂y (x̄(t), ˙̄x(t))ḣ(t)]dt = 0 (3.2) Para deducir de aqúı la ecuación de Euler-Lagrange (3.1), basta con justificar una integración por partes más un argumento de localización. Con este fin, necesitamos algunos resultados técnicos. 3.2. Resultados técnicos Lema 3.2.1 Sea c ∈ C(a, b) tal que b∫ a c(t)h(t)dt = 0 para toda función h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b]. Demostración. Dado n ≥ 1, definamos la función ϕn(t) = n(t− a) si a ≤ t ≤ a+ 1/n, 1 si a+ 1/n ≤ t ≤ b− 1/n, n(b− t) si b− 1/n ≤ t ≤ b. Tomando hn = ϕnc se tiene hn ∈ C(a, b) y hn(a) = hn(b) = 0. Luego ∀n ≥ 0, b∫ a c(t)hn(t)dt = 0 3.2. RESULTADOS TÉCNICOS 21 Por ota parte, chn = ϕnc 2 ր c2 y, por el teorema de la convergencia dominada, se obtiene 0 = ĺım n→∞ b∫ a c(t)hn(t)dt = b∫ a c2(t)dt. Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b]. Lema 3.2.2 Sea c ∈ C(a, b) tal que b∫ a c(t)ḣ(t)dt = 0 para toda función h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces, existe una constante c ∈ R tal que c ≡ c en [a, b]. Demostración. Sea c = 1 b− a b∫ a c(t)dty consideremos h(t) = t∫ a [c(ξ) − c]dξ, función que satisface h(a) = h(b) = 0 y además h ∈ C1(a, b). En consecuencia 0 = b∫ a c(t)ḣ(t)dt = b∫ a c(t)[c(t) − c]dt. Como b∫ a c̄[c(t) − c]dt = c(b− a)c− c2(b− a) = 0, deducimos que b∫ a [c(t) − c̄]2dt = 0. Luego, c(t) = c̄ c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ c en [a, b]. 22CAPÍTULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE Proposición 3.2.1 Sean c, d ∈ C(a, b) tales que b∫ a [c(t)h(t)dt+ d(t)ḣ(t)]dt = 0 para todo h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces d ∈ C1(a, b) y más aún ḋ = c. Demostración. Aplicaremos integración por partes. Sea A(t) = t∫ a c(ξ)dξ. Entonces, para todo h ∈ C1(a, b) con h(a) = h(b) = 0 se obtiene b∫ a c(t)h(t)dt = A(t)h(t)|ba − b∫ a A(t)ḣ(t)dt = − b∫ a A(t)ḣ(t)dt, y en consecuencia b∫ a [−A(t) + d(t)]ḣ(t)dt = 0. Por el lema 3.2.2, existe c ∈ R tal que d(t) = A(t) + c̄, y en particular ḋ(t) = Ȧ(t) = c(t), lo que prueba el resultado. 3.3. Conclusión Aplicando la proposición 3.2.1 a (3.2) se deduce la conclusión del teorema 3.1.1. Notemos que tal como han sido expuestas, existe una brecha entre la teoŕıa de existencia y la de condiciones necesarias. La primera sólo proporciona soluciones x̄ ∈ AC(0, T ;RN), de modo tal que sólo podemos asegurar ˙̄x ∈ L1(0, T ;RN). En realidad, se tiene un poco más: ˙̄x ∈ L1(0, T ;RN) con p > 1 asociado a la condición de crecimiento (Cp). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu- mimos que x̄ ∈ C1(0, T ;RN), de modo tal que no podemos aplicar el último teorema a las soluciones que se obtienen a partir del método directo. Para cerrar esta brecha, es necesario desarrollar una tercera teoŕıa concerniente a la regularidad de las soluciones de (P). Ese es el objetivo del siguiente caṕıtulo. Caṕıtulo 4 Regularidad de las soluciones óptimas 4.1. Regularidad de tipo Lipschitz Con el fin de cerrar la brecha entre la teoŕıa de existencia v́ıa el método directo y la de condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado: Teorema 4.1.1 Supongamos que L ∈ C1(RN × RN ;R) y satisface (Cp) para algún p > 1. Entonces toda solución x̄ de (P) es Lipschitz, es decir, existe una constante M0 ≥ 0 tal que ‖ ˙̄x(t)‖ ≤ M0 c.t.p. t ∈ [a, b]. La idea de la demostración es la siguiente: tomemos m < M dos constantes y definamos los conjuntos ℓm = {t ∈ [0, T ] | ‖ ˙̄x(t)‖ ≤ m} LM = {t ∈ [0, T ] | ‖ ˙̄x(t)‖ ≥M}. Intuitivamente, en ℓm la trayectoria x̄(t) se mueve “lentamente”mientras que en LM lo hace más rápido. La idea es construir una trayectoria xM(t) que se mueva más rápido que x̄(t) en ℓm y más lento que x̄(t) en LM , y que más aún T∫ 0 L(xM (t), ẋM(t))dt < T∫ 0 L(x̄(t), ˙̄x(t))dt para M suficientemente grande, siempre que L1(LM ) > 0, donde L1 es la medida de Lebesgue en R. Esta última desigualdad contradice la optimalidad de x̄, por lo que necesariamente se tendrá L1(LM) = 0 para todo M ≥ M0 a partir de cierto M0, lo que prueba el carácter Lipschitz de x̄. 4.2. Demostración del resultado de regularidad Procederemos por etapas. Para simplificar, supondremos sin pérdida de generali- dad que la condición de crecimiento (Cp) se tiene con a = 0 y b = 1. 23 24 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS Etapa 1. Escoger un valor para m. Dado m > 0, tenemos que mı́n(P) = T∫ 0 L(x̄, ˙̄x)dt = ∫ ℓm L(x̄, ˙̄x)dt+ ∫ [0,T ]\ℓm L(x̄, ˙̄x)dt ≥ ∫ [0,T ]\ℓm ‖ ˙̄x‖pdt ≥ L1([0, T ] \ ℓm)m p = (T − L1(ℓm))m p. Luego L1(ℓm) ≥ T − mı́n(P) mp . Tomando m suficientemente grande, podemos suponer que L1(ℓm) ≥ T 2 . (4.1) Etapa 2. Construcción de una reparametrización temporal. Sea M > m, donde m es tal que se tiene (4.1). Definamos σM : [0, T ] → [0, T ] tal que σM(0) = 0 y además dσM dt (t) = ‖ ˙̄x(t)‖ en LM , dσM dt (t) = 1 en [0, T ] \ (LM ∪ ℓm), dσM dt (t) = rM en ℓm, donde rM > 0 se ajusta de modo tal que σM (T ) = T . Más precisamente T = σM(T ) = 0 + T∫ 0 dσM dt (t)dt = ∫ LM ‖ ˙̄x(t)‖dt+ ∫ [0,T ]\(LM∩ℓm) dt+ rM ∫ ℓm dt. Como T = T∫ 0 1dt, deducimos que ∫ LM (‖ ˙̄x(t)‖ − 1)dt+ ∫ ℓm (rM − 1)dt = 0, 4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 25 es decir ∫ LM (‖ ˙̄x(t)‖ − 1)dt = (1 − rM)L1(ℓm). Podemos suponer queM > 1 y, como ‖ ˙̄x(t)‖ ≥M en LM tenemos que necesariamente, rM < 1 Por otra parte, si M ր +∞ entonces ∫ LM (‖ ˙̄x(t)‖ − 1)dt ց 0 (de otra forma, ˙̄x /∈ L1(0, T ;RN)). Luego, tomando M > m suficientemente grande podemos suponer que 1 2 ≤ rM < 1. Etapa 3. Definición de xM y consecuencias. Definamos xM (s) = x̄(σ −1 M (s)), s ∈ [0, T ]. Como x̄ es óptimo, sabemos que T∫ 0 L(xM , ẋM)ds ≥ T∫ 0 L(x̄, ˙̄x)dt. (4.2) Ahora bien dxM ds (s) = dx̄ dt (σ−1M (s)) dσ−1M ds (s). Sea el cambio de variables σM (t) = s, de modo tal que dσ−1M ds (s) = 1 dσM dt (t) . Aśı T∫ 0 L(xM , ẋM)ds = T∫ 0 L(xM (s), dx̄ dt (σ−1M (s))/ dσM dt (σ−1M (s)))ds = T∫ 0 L(x̄(t), dx̄ dt (t)/ dσM dt (t)) dσM dt (t)dt = ∫ ℓm L(x̄, 1 rM ˙̄x)rMdt+ ∫ LM L(x̄, ˙̄x ‖ ˙̄x‖ )‖ ˙̄x‖dt+ ∫ [0,T ]\(LM∩ℓm) L(x̄, ˙̄x)dt. 26 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS Usando (4.2), deducimos que ∫ ℓm [L(x̄, 1 rM ˙̄x)rM − L(x̄, ˙̄x)]dt+ ∫ LM [L(x̄, ˙̄x ‖ ˙̄x‖ )‖ ˙̄x‖ − L(x̄, ˙̄x)]dt ≥ 0. Como x̄ es acotada (por ser continua en [0, T ]) y ‖ ˙̄x ‖ ˙̄x‖ ‖ = 1, entonces L(x̄, ˙̄x ‖ ˙̄x‖ ) es aco- tada superiormente (pues L es continua), lo que junto con la condición de crecimiento L(x, y) ≥ ‖y‖p nos da ∫ ℓm [L(x̄, 1 rM ˙̄x)rM − L(x̄, ˙̄x)]dt+ ∫ LM [C‖ ˙̄x‖ − ‖ ˙̄x‖p]dt ≥ 0 para alguna constante C > 0. Por otra parte, como L es de clase C1 tenemos que es localmente Lipschitz, y en particular ∀R > 0, ∃KR, ∀(x, y) ∈ R N × RN , máx{‖x‖, ‖y‖, ‖y′‖} ≤ R ⇒ |L(x, y)−L(x, y′)| ≤ KR‖y− y ′‖. Luego, como ‖ ˙̄x(t)‖ ≤ m en ℓm, se tiene que tomando x = x̄(t) e y = ˙̄x(t) con t ∈ ℓm entonces L(x, 1 rM y)rM − L(x, y) ≤ L(x, 1 rM y) − L(x, y) ≤ KR rM (1 − rM)‖y‖, ↑ rM < 1 para R ≥ máx{máx{x̄(t) | t ∈ [0, T ]}, 2m}. Deducimos que ∫ ℓm D(1 − rM)dt+ ∫ LM [C‖ẋ‖ − ‖ẋ‖p]dt ≥ 0 para algunas constantes C,D > 0. Pero de la etapa 2, sabemos que (1 − rM)L1(ℓm) = ∫ LM (‖ ˙̄x‖ − 1)dt, y en consecuencia, para todo M suficientemente grande, ∫ LM [D(‖ ˙̄x(t)‖ − 1) + C‖ ˙̄x(t)‖ − ‖ ˙̄x(t)‖p]dt ≥ 0. (4.3) Etapa 4. Conclusión. Como p > 1, la función Φ(u) = (C +D)u−D − up, u ≥ 0, satisface Φ(u) < 0 para todo u suficientemente grande, digamos u ≥M0 4.2. DEMOSTRACIÓN DEL RESULTADO DE REGULARIDAD 27 para una constante M0 ≥ 0, y dado que ‖ ˙̄x‖ ≥ M en LM , entonces ∫ LM0 Φ(‖ ˙̄x(t)‖)dt < 0 siempre que L1(LM0) > 0, lo que contradeceŕıa la desigualdad (4.3). Por lo tanto, ∀M ≥M0,L1(LM) = 0 y en particular ‖ ˙̄x(t)‖ ≤M0 c.t.p. t ∈ [0, T ]. 28 CAPÍTULO 4. REGULARIDAD DE LAS SOLUCIONES ÓPTIMAS Caṕıtulo 5 Ecuaciones de Euler-Lagrange: caso Lipschitz En virtud de la regularidad Lipschitz de las soluciones óptimas de (P) establecida en el caṕıtulo 4, es posible obtener la versión generalizada de las ecuaciones de Euler- Lagrange. 5.1. Ecuaciones de Euler-Lagrange generalizadas Teorema 5.1.1 Bajo las hipótesis del teorema 4.1.1, si x̄ es una solución de (P) entonces la función [0, T ] ∋ t 7→ ∂L ∂y (x̄(t), ˙̄x(t)) es diferencible c.t.p. en [0, T ] y más aún d dt ∂L ∂y (x̄, ˙̄x) = ∂L ∂x (x̄, ˙̄x) c.t.p. en [0, T ] Demostración. Definamos las funciones f(t) = ∂L ∂y (x̄(t), ˙̄x(t)), g(t) = ∂L ∂x (x̄(t), ˙̄x(t)). Como L es de clase C1 y x̄ es Lipschitz continua en virtud del teorema 4.1.1, dedu- cimos que f y g son funciones acotadas. Consideremos una función lipschitziana h : [0, T ] → R de la forma h(t) = ∫ t 0 ψ(t)dt con ψ ∈ L∞(0, T ;RN) tal que T∫ 0 ψ(t)dt = 0 (5.1) 29 30 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ de modo tal que h(0) = h(T ) = 0. Razonando de manera análoga a lo realizado en la sección 3.1 para obtener (3.2), peroahora asumiendo sólo lipschitzianidad de x̄ y h, tenemos que t∫ 0 [f(t)ḣ(t) + g(t)h(t)]dt = 0. (5.2) Esto último se puede justificar utilizando el siguiente lema técnico de la teoŕıa de la medida que enunciamos sin demostración (se trata de una consecuencia relativamente sencilla del teorema de convergencia dominada): Lema 5.1.1 Sea ϕ : Rk × R→ R una función tal que: (i) ∀λ ∈ R, ϕ(·, λ) ∈ L1(Rk). (ii) ∀ξ ∈ Rk, ϕ(ξ, ·) ∈ C1(R). (iii) ∃g ∈ L1(Rk), ∀λ ∈ R, ∣∣∣∣ ∂ϕ ∂λ (ξ, λ) ∣∣∣∣ ≤ g(x). Entonces, la función Φ(λ) = ∫ Rk ϕ(ξ, λ)dξ es de clase C1 en R y más aún Φ′(λ) = ∫ Rk ∂ϕ ∂λ (ξ, λ)dξ. Definamos A(t) = f(t) − t∫ 0 g(s)ds. Una integración por partes en (5.2) proporciona t∫ 0 A(t)ḣ(t)dt = 0, o equivalentemente, para todo ψ ∈ L∞(0, T ;RN) que satisface (5.1), se tiene T∫ 0 A(t)ψ(t)dt = 0. Sean ahora ψ ∈ L2(0, T ;RN) y ψn L2 −→ψ con ψn ∈ L ∞(0, T ;RN) tales que T∫ 0 ψn(t)dt = 0. Entonces ψ satisface (5.1) y además, dado que A ∈ L∞(0, T ;RN) ⊆ L2(0, T ;RN), se tiene T∫ 0 A(t)ψ(t)dt = 〈A,ψ〉L2 = ĺım n→∞ 〈A,ψn〉L2 = ĺım n→∞ T∫ 0 A(t)ψn(t)dt = 0. 5.2. EJEMPLO: DINÁMICA DE UNA PARTÍCULA 31 Por densidad de L∞(0, T ;RN) en L2(0, T ;RN), deducimos fácilmente que ∀ψ ∈ L2(0, T ;RN), T∫ 0 ψ(t)dt = 0 ⇒ T∫ 0 A(t)ψ(t)dt = 0. Es decir, ∀ψ ∈ L2(0, T ;RN), 〈1, ψ〉L2 = 0 ⇒ 〈A,ψ〉L2 = 0. Esto significa que A ⊥ L2/R, es decir, existe ĉ ∈ R tal que A(t) = ĉ c.t.p. t ∈ [0, T ], que era exactamente lo que queŕıamos demostrar. 5.2. Ejemplo: dinámica de una part́ıcula Dado m > 0, consideremos el problema (Pm) mı́n T∫ 0 [m 2 ‖ẋ(t)‖2 − U(x(t)) ] dt ∣∣∣ x ∈ AC(0, T ;R3), x(0) = x0, x(T ) = x1 . Supongamos que U ∈ C1(R3) y que además sup x∈R U(x) < +∞. Aśı, L(x, y) = m 2 ‖y‖2 − U(x) ≥ m 2 ‖y‖2 − supU, de modo que se satisface la condición de crecimiento (Cp) con p = 2. Deducimos que (Pm) admite una solución x̄ ∈ AC(0, T ;R 3) y, más aún, esta solución es Lipschitz y satisface la ecuación de Euler-Lagrange m d dt ẋ(t) = −∇U(x(t)) c.t.p. t ∈ [0, T ] Como x̄ es continua y U ∈ C1(R3), el lado derecho de esta ecuación evaluado en x̄ es continuo con respecto a t y en consecuencia x̄ ∈ C2(0, T ;R3) y además satisface el problema diferencial de segundo orden con condiciones de borde { mẍ+ ∇U(x) = 0, x(0) = x0, x(T ) = x1. Si U ∈ Ck(R3) entonces se deduce recursivamente que x̄ ∈ Ck+1(0, T ;R3). El problema diferencial correspondiente al movimiento de una part́ıcula de masa m sometida a un campo de fuerzas F = −∇U asociado al potencial U . En este contexto, a la función L(x, ẋ) = m 2 ‖ẋ(t)‖2 − U(x(t)) se le llama lagrangiano, y el hecho que la trayectoria de la part́ıcula sea una solución de (Pm) se conoce como el principio de mı́nima acción, entendiendo por “acción” la integral del lagrangiano. 32 CAPÍTULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ Caṕıtulo 6 Ejercicios 1. Convergencia variacional y el método directo. Sea (X, ‖ · ‖) un espacio de Ba- nach reflexivo. Diremos que una sucesión de funciones Fn : X → R converge variacionalmente a una función F : X → R, lo que escribiremos F = V - ĺım n→∞ Fn, si se satisfacen las dos condiciones siguientes: (V1) ∀x ∈ X, ∀xn ⇀ x, F (x) ≤ ĺım inf n→∞ Fn(xn). (V2) ∀x ∈ X, ĺım sup n→∞ Fn(x) ≤ F (x). (a) Pruebe que (V2) implica que ĺım sup n→∞ (́ınf X Fn) ≤ ı́nf X F. Considere la siguiente condición de crecimiento uniforme para la sucesión (Fn): ∃α ∈ R, ∃β > 0, ∀n ∈ N, ∀x ∈ X,Fn(x) ≥ α + β‖x‖. (6.1) (b) Pruebe que bajo (6.1), existe una sucesión acotada (xn) ⊂ X tal que ĺım sup n→∞ Fn(xn) ≤ ĺım sup n→∞ (́ınf X Fn). (c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V - ĺım n→∞ Fn entonces existe x̄ ∈ X tal que F (x̄) = mı́n X F . 2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capital y el consumo de un individuo en el instante t respectivamente. Asuma que la producción de capital está dada por la función f(x) = δx con δ > 0, mientras que la función de utilidad del individuo está dada por u(c) = −λ(c − c∗)2 con λ, c∗ > 0. Los parámetros δ, λ, c∗ > 0 son conocidos. En un horizonte [0, T ], el individuo busca maximizar la utilidad esperada, esto es (P) máx T∫ 0 u(c(t))dt ẋ(t) = f(x(t)) − c(t) x(0) = x0 > 0 (capital inicial), x(T ) = 0 (capital final nulo) 33 34 CAPÍTULO 6. EJERCICIOS (a) Pruebe que (P) admite al menos una solución x ∈ AC(0, T ;R). Ind.: puede suponer que x(t) es acotado para toda función factible para (P). (b) Deduzca que la solución x es Lipschitz continua. (c) Calcule x. Bibliograf́ıa El lector interesado en profundizar los conceptos y métodos expuestos brevemente en estos apuntes puede consultar la amplia bibliograf́ıa que existe al respecto. Son muchos los autores que han escrito libros sobre problemas variacionales del cálculo de variaciones, métodos directos para establecer existencia, problemas de semicontinuidad inferior, aplicaciones a ecuaciones diferenciales y a problemas de control óptimo, etc. La siguiente es sólo una lista parcial de textos recomendables que abordan estos temas: [Att84] Attouch, H., Variational Convergence for Functions and Operators, Applica- ble Mathematics Series, Pitman (Advanced Publishing Program), Boston, MA, 1984. [BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, Oxford Lecture Series in Mathematics and its Applications, 12, The Clarendon Press, Oxford University Press, New York, 1998. [But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the Calculus of Variations, Pitman Research Notes in Mathematics Series, 207, Long- man Scientific & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989. [CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus of Variations. Representation, Relaxation, and Homogenization. Chapman & Hall/CRC Monographs and Surveys in Pure and Applied Mathematics, 125. Chapman & Hall/CRC, Boca Raton, FL, 2002. [Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary differential equations, Applications of Mathematics, 17, Springer-Verlag, New York, 1983. [Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mat- hematical Sciences, 78, Springer-Verlag, Berlin, 1989. [Dal93] Dal Maso, G., An Introduction to Γ-convergence, Birkhäuser, Boston, 1993. [Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse der Mathematik und ihrer Grenzgebiete (3) [Results in Mathematics and Related Areas (3)], 19, Springer-Verlag, Berlin, 1990. [EkT99] Ekeland, I., Témam, R., Convex Analysis and Variational Problems, (tra- ducción del francés), versión corregida de la edición en inglés de 1976, Classics in Applied Mathematics, 28, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1999. 35 36 BIBLIOGRAFÍA [GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En- glewood Cliffs, N.J., 1963. [GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian formalism. II. The Hamiltonian formalism, Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences], 310-311, Springer-Verlag, Berlin, 1996. [Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh- ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York, Inc., New York, 1966. [Str00] Struwe, M., Variational Methods. Applications to nonlinear partial differential equations and Hamiltonian systems. Third edition, Ergebnisse der Mathematik und ihrer Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics [Results in Mathematics and Related Areas. 3rd Series. A Series of Modern Sur- veys in Mathematics], 34, Springer-Verlag, Berlin, 2000.
Compartir