Logo Studenta

El Método de Lagrange

¡Este material tiene más páginas!

Vista previa del material en texto

DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
1 
 
 
 
 
 
Introducción a los 
multiplicadores de Lagrange 
 
La técnica de los “multiplicadores de Lagrange” es una 
forma de resolver problemas de optimización con 
restricciones. ¡Súper útil! 
¿Qué vamos a construir? 
COMPESP N° 01 
Describe e interpreta con 
rigor científico el Método 
de Lagrange. 
ACTIVIDAD N° 01 
 
Estudie la siguiente información sobre 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
2 
➢ La técnica de los multiplicadores de Lagrange te permite 
encontrar el máximo o el mínimo de una función 
multivariable, ( , ,...)f x y , cuando hay alguna restricción 
en los valores de entrada que puedes usar. 
➢ Esta técnica solo se aplica a restricciones que se ven así: 
( , ,...)g x y c= 
Aquí, g es otra función multivariable con el mismo 
espacio de entrada que f , y c es alguna constante. 
 
[Imagen: Optimización restringida] 
 
Por ejemplo, si el espacio de entrada es bidimensional, la 
gráfica de f con la línea que representa ( , ,...)g x y c=
proyectada sobre ella podría verse así: 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
3 
 
OPTIMIZACIÓN RESTRINGIDA 
 
El objetivo es encontrar el punto más alto en esa línea 
roja. 
➢ La idea central es buscar puntos en donde las curvas de 
nivel de f y g sean tangentes entre sí. 
➢ Esto es lo mismo que encontrar puntos en donde los 
vectores de los gradientes de f y g sean paralelos entre 
sí. 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
4 
➢ Todo el proceso puede reducirse a hacer el gradiente de 
una cierta función, llamada el lagrangeano, igual al 
vector cero. 
 
[Explicación] 
 
Paso 1 introduce una nueva variable  y define una nueva 
función L como sigue: 
 
( , ,..., ) ( , ,...) [ ( , ,...) ]L x y f x y g x y c = − − 
 
Esta función L se llama el “lagrangeano”, y a la nueva 
variable  se le conoce como un “multiplicador de 
Lagrange” 
Paso 2 haz el gradiente de L igual al vector cero. 
( , ,..., ) 0L x y  = 
En otras palabras, encuentra los puntos críticos de L. 
Paso 3 considera cada solución, las cuales se ven algo como 
0 0 0( , ,..., )x y  . Sustituye cada una en f . O más bien, primero 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
5 
quita la componente 0 , después sustitúyela en f , ya que  
no es una entrada de f . La que dé el valor más grade (o más 
chico) es el punto máximo (o mínimo) que estás buscando. 
 
Un Ejemplo para motivarse 
Supón que quieres maximizar esta función: ( , ) 2f x y x y= + 
 
GRÁFICA DE LA FUNCIÓN ( , ) 2f x y x y= + 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
6 
Pero también digamos que limitaste los valores de entrada 
( , )x y que satisfacen la siguiente ecuación: 
2 2 1x y+ = 
En otras palabras, ¿para qué punto ( , )x y sobre el círculo 
unitario el valor de ( , ) 2f x y x y= + es máximo? 
Esto es lo que se conoce como un problema de optimización 
con restricciones. La condición de usar puntos que satisfacen 
2 2 1x y+ = se llama “una restricción”, y ( , ) 2f x y x y= + 
es la función que necesita ser optimizada. 
He aquí una manera de visualizar el problema: primero dibuja 
la gráfica de ( , )f x y , que se ve como un plano inclinado, pues 
f es lineal. Después proyecta el círculo verticalmente del 
plano xy sobre la gráfica de f . El valor máximo que 
buscamos corresponde al punto más alto de este círculo 
proyectado sobre la gráfica. 
 
 
 
 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
7 
2 2 1x y+ = ( , )f x y[Video: Proyección del sobre ] 
 
La forma más general 
En general, los problemas de optimización con restricciones 
involucran maximizar o minimizar una función multivariable 
cuya entrada tiene cualquier número de dimensiones: 
( , ,...)f x y 
https://www.youtube.com/embed/KiR7dPaBFm0?feature=oembed
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
8 
Sin embargo, su salida siempre será unidimensional, ya que no 
hay una noción clara del "máximo" para funciones con valores 
vectoriales. 
El tipo de restricciones con los que se aplica la técnica de los 
multiplicadores de Lagrange debe tomar la forma de otra 
función multivariable ( , ,...)g x y que sea igual una constante 
c . 
( , ,...)g x y c= 
Como esta va a ser una restricción sobre la entrada de f , el 
número de dimensiones en la entrada de g es el mismo que 
el de f . El ejemplo descrito antes cumple esta forma general 
de la siguiente manera: 
2 2
( , ) 2
( , )
1
f x y x y
g x y x y
c
= +
= +
=
 
 
 
[Explicación] 
Existe una generalización de la técnica de los multiplicadores 
de Lagrange que se aplica a situaciones con múltiples 
restricciones en la entrada. 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
9 
1 1
2 2
3 3
( , , ,...)
( , , ,...)
( , , ,...)
.........................
g x y z c
g x y z c
g x y z c
=
=
= 
En este archivo, sin embargo, solo trataremos el caso con una 
sola restricción. 
Usar mapas de curvas de nivel 
Razonar acerca de este problema se vuelve más fácil si 
visualizamos f no con una gráfica, sino con sus curvas de 
nivel. 
La observación clave es que cuando k es un máximo o un 
mínimo de f sujeto a la restricción, la curva de nivel de 
( , )f x y k= será tangente a la curva que representa 
( , )g x y c= . 
Dónde entra en juego el gradiente 
¿Cómo reflejar, en una fórmula que podamos resolver, la idea 
de que dos curvas de nivel sean tangentes? 
https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/g/a/contour-maps
https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/g/a/contour-maps
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
10 
Para responder esto, recurrimos a nuestro fiel amigo el 
gradiente. Hay muchas maneras de interpretar f : la 
dirección de ascenso más pronunciado, una herramienta para 
calcular derivadas direccionales, etc. Pero para nuestro 
propósito, la propiedad que nos interesa es que el gradiente 
de f evaluado en el punto 0 0( , )x y siempre da un vector 
perpendicular a la curva de nivel que pasa por ese punto. 
 
 
LOS VECTORES GRADIENTES SON PERPENDICULARES A LAS CURVAS DE NIVEL 
 
https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/partial-derivatives-and-the-gradient/a/the-gradient
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
11 
Esto significa que cuando las curvas de nivel de dos funciones 
f y g son tangentes, sus vectores gradientes son paralelos. 
Así es como se podrían ver para dos funciones arbitrarias f y 
g : 
 
IMAGEN DE CURVAS DE NIVEL TANGENTES 
 
El hecho de que las curvas de nivel sean tangentes no nos dice 
nada acerca de la magnitud de cada uno de estos vectores 
gradientes, pero eso está bien. Cuando dos vectores apuntan 
en la misma dirección, significa que podemos multiplicar 
cualquiera de los dos por una constante para obtener el otro. 
Específicamente, sea 0 0( , )x y un punto particular donde las 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIASFIDEL VERA OBESO 
 
 
12 
curvas de nivel de f y g son tangentes (escribir 0x y 0y solo 
indica que estamos considerando valores constantes y, por lo 
tanto, un punto específico). Ya que esta tangencia significa 
que los vectores gradientes se alinean, esto es lo que podrías 
escribir: 
0 0 0 0 0( , ) ( , )f x y g x y =  
Aquí, 0 representa alguna constante. Hay autores que usan 
una constante negativa 0− , pero preferimos una constante 
positiva, pues se obtiene una interpretación más limpia de 0 
Veamos cómo se ve esto en nuestro ejemplo, donde
( , ) 2f x y x y= + . El gradiente de f es: 
 
(2 )
2
( , )
1
(2 )
x y
x
f x y
x y
y
 
+   
  = =     +
  
 
y el gradiente de g es 
2 2
2 2
( 1)
2
( , )
2
( 1)
x y
xx
g x y
y
x y
y
 
+ −   
  = =     + −
  
 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
13 
Por lo tanto, la condición de tangencia termina por verse así: 
0
0
0
22
21
x
y

  
=   
   
 
Resolver el problema en el caso específico 
Para resumir en donde estamos hasta ahora, buscamos puntos 
de entrada 0 0( , )x y con las siguientes propiedades: 
➢ 0 0( , ) 1g x y = que para nuestro ejemplo significa 
2 2
0 0 1x y+ = 
➢ 0 0 0 0 0( , ) ( , )f x y g x y =  para alguna constante que para 
nuestro ejemplo significa 
0 0
0 0
2 2
1 2
x
y


=
= 
Hay 3 ecuaciones con 3 incógnitas, así que podemos 
encontrar una solución. 
 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
14 
[Mira la solución final] 
El enfoque será primero resolver para 0 , después usar la 
solución para encontrar 0x y 0y . 
Al usar las últimas dos ecuaciones de arriba, escribimos 0x y 
0y en términos de 0 . 
0 0 0
0
0 0 0
0
1
2 2
1
1 2
2
x x
y y




= → =
= → =
 
Para ahora hacer uso de la tercera ecuación, sustituye estos 
resultados en la ecuación 
2 2
0 0 1x y+ = . 
2 2
0 0
2 2
0 0
2 2
0 0
1
1 1
1
2
1 1
1
4
x y
 
 
+ =
   
+ =   
   
+ =
 
 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
15 
Para quitar 0 de los denominadores, multiplicamos todo por 
04 y simplificamos 
2
0
2
0
0
0
4 1 4
5
4
5
4
5
2




+ =
=
 =
 =
 
 
Al usar las expresiones para 0x y 0y en términos de 0 que 
encontramos arriba, estas dos soluciones corresponden con los 
pares 
( )0 0
0 0
1 1
, ,
2
2 1 2 1
, ,
5 5 5 5
x y
 
 
=  
 
   
=  − −   
   
 
Podemos ver cuál de estos es un punto máximo y cuál es un 
mínimo al sustituir estas soluciones en ( , ) 2f x y x y= + y ver 
cuál es más grande. 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
16 
0 0 0 0( , ) 2
2 1 2 1 5
( , ) 2 5
5 5 5 5 5
2 1 2 1 5
( , ) 2 5
5 5 5 5 5
f x y x y
f máx
f mín
= +
 
= + = =  
 
 
− − = − − = − = −  
 
 
 
Función Lagrangeana 
 
JOSEPH LOUIS LAGRANGE 
 
En 1700, Joseph Louis Lagrange estudió problemas de 
optimización con restricciones de este tipo, y encontró una 
manera muy inteligente para expresar todas nuestras 
condiciones en una sola ecuación. 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
17 
Puedes escribir estas condiciones de manera general al decir 
que estamos buscando constantes 0x , 0y y 0 que 
satisfagan las siguientes condiciones: 
 
La restricción 
0 0( , )g x y c= 
 
La condición de tangencia 
0 0 0 0 0( , ) ( , )f x y g x y =  
Esto se puede dividir en sus componentes como sigue: 
0 0 0 0 0
0 0 0 0 0
( , ) ( , )
( , ) ( , )
x x
y y
f x y g x y
f x y g x y


=
= 
Lagrange escribió una nueva función especial que toma las 
mismas variables de entrada que f y g , junto con  , que 
ahora pensamos como una variable en lugar de una constante. 
( , , ) ( , ) [ ( , ) ]L x y f x y g x y c = − − 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
18 
Por ejemplo, considera nuestro ejemplo anterior 
2 2
( , ) 2
( , )
1
f x y x y
g x y x y
c
= +
= +
=
 
Así es cómo se vería esta nueva función: 
2 2
( , , ) ( , ) [ ( , ) ]
( , , ) 2 ( 1)
L x y f x y g x y c
L x y x y x y
 
 
= − −
= + − + − 
Observa que la derivada parcial de L con respecto a  es 
( ( , ) )g x y c− − : 
 
( , , ) ( , ) ( ( , ) )
( , , ) ( , ) ( ( , ) )
( , ) 0
L x y f x y g x y c
L x y f x y g x y c
g x y c

 
 

= − −

= − −

= − + =
 
Así que podemos traducir la condición ( , )g x y c= como 
( , , ) ( , ) 0L x y g x y c  = − + = 
Es más, mira lo que obtenemos cuando hacemos una de las 
derivadas parciales igual a cero: 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
19 
 
( , , ) 0
( , ) ( ( , ) ) 0
( , ) ( , ) 0
( , ) ( , )
x
x x
x x
L x y
f x y g x y c
x
f x y g x y
f x y g x y




=

− − =

− =
=
 
¡Eso resulta ser otra de nuestras otras condiciones! De manera 
casi idéntica, la condición ( , , ) 0yL x y  = se revela como 
( , ) ( , )y yf x y g x y= 
Juntas, estas condiciones son lo mismo que decir 
( , ) ( , )f x y g x y =  
Por lo tanto, las tres condiciones que necesitamos resolver 
para encontrar ,x y  se resumen a que las derivadas 
parciales de L sean iguales a cero. Esto se puede escribir de 
manera extremadamente compacta al hacer el gradiente de 
L igual al vector cero: 
0L = 
Por ejemplo, con nuestras funciones específicas de arriba, 
vemos que esto conforma el sistema de ecuaciones que 
tenemos que resolver: 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
20 
( )
2 2
2 2
2 2
2 2
2 ( 1)
2 2
, , 2 ( 1) 1 2
1
2 ( 1)
x y x y
x x
L x y x y x y y
y
x y
x y x y


  


 
 + − + −   −   
     = + − + − = −    
   − − + 
  + − + −   
 
Como un tributo a Joseph Louis, a esta función L se llama 
el “lagrangeano”, y la nueva variable  introducida se llama 
un “multiplicador de Lagrange”. 
 
Advertencia: algunos autores usan la convención en la que 
invierten el signo de  : 
( , , ) ( , ) ( ( , ) )L x y f x y g x y c = + − 
 
 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
21 
Resumen 
 
OPTIMIZACIÓN RESTRINGIDA 
 
Cuando quieres maximizar (o minimizar) una función 
multivariable ( , ,...)f x y sujeta a la restricción de que otra 
función multivariable sea igual a una constante 
( , ,...)g x y c= sigue estos pasos: 
Paso 1 introduce una nueva variable  y define una nueva 
función L como sigue: 
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 
 
 
22 
( , ,..., ) ( , ,...) ( ( , ,...) )L x y f x y g x y c = − − 
 
Esta función L se llama el “lagrangeano”, y la nueva 
variable  introducida se llama un “multiplicador de 
Lagrange”. 
 
Paso 2 haz el gradiente de L igual al vector cero. 
( , ,..., ) 0L x y  = 
En otras palabras, encuentra los puntos críticos de L . 
 
Paso 3 considera cada solución, las cuales se ven algo como 
0 0 0( , ,..., )x y  . Sustituye cada una en f . O más bien, primero 
quita la componente 0 , después sustitúyela en f ya que  
no es una entrada de f . La que dé el valor más grade (o más 
chico) es el punto máximo (o mínimo) que estás buscando.

Continuar navegando