Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 1 Introducción a los multiplicadores de Lagrange La técnica de los “multiplicadores de Lagrange” es una forma de resolver problemas de optimización con restricciones. ¡Súper útil! ¿Qué vamos a construir? COMPESP N° 01 Describe e interpreta con rigor científico el Método de Lagrange. ACTIVIDAD N° 01 Estudie la siguiente información sobre DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 2 ➢ La técnica de los multiplicadores de Lagrange te permite encontrar el máximo o el mínimo de una función multivariable, ( , ,...)f x y , cuando hay alguna restricción en los valores de entrada que puedes usar. ➢ Esta técnica solo se aplica a restricciones que se ven así: ( , ,...)g x y c= Aquí, g es otra función multivariable con el mismo espacio de entrada que f , y c es alguna constante. [Imagen: Optimización restringida] Por ejemplo, si el espacio de entrada es bidimensional, la gráfica de f con la línea que representa ( , ,...)g x y c= proyectada sobre ella podría verse así: DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 3 OPTIMIZACIÓN RESTRINGIDA El objetivo es encontrar el punto más alto en esa línea roja. ➢ La idea central es buscar puntos en donde las curvas de nivel de f y g sean tangentes entre sí. ➢ Esto es lo mismo que encontrar puntos en donde los vectores de los gradientes de f y g sean paralelos entre sí. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 4 ➢ Todo el proceso puede reducirse a hacer el gradiente de una cierta función, llamada el lagrangeano, igual al vector cero. [Explicación] Paso 1 introduce una nueva variable y define una nueva función L como sigue: ( , ,..., ) ( , ,...) [ ( , ,...) ]L x y f x y g x y c = − − Esta función L se llama el “lagrangeano”, y a la nueva variable se le conoce como un “multiplicador de Lagrange” Paso 2 haz el gradiente de L igual al vector cero. ( , ,..., ) 0L x y = En otras palabras, encuentra los puntos críticos de L. Paso 3 considera cada solución, las cuales se ven algo como 0 0 0( , ,..., )x y . Sustituye cada una en f . O más bien, primero DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 5 quita la componente 0 , después sustitúyela en f , ya que no es una entrada de f . La que dé el valor más grade (o más chico) es el punto máximo (o mínimo) que estás buscando. Un Ejemplo para motivarse Supón que quieres maximizar esta función: ( , ) 2f x y x y= + GRÁFICA DE LA FUNCIÓN ( , ) 2f x y x y= + DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 6 Pero también digamos que limitaste los valores de entrada ( , )x y que satisfacen la siguiente ecuación: 2 2 1x y+ = En otras palabras, ¿para qué punto ( , )x y sobre el círculo unitario el valor de ( , ) 2f x y x y= + es máximo? Esto es lo que se conoce como un problema de optimización con restricciones. La condición de usar puntos que satisfacen 2 2 1x y+ = se llama “una restricción”, y ( , ) 2f x y x y= + es la función que necesita ser optimizada. He aquí una manera de visualizar el problema: primero dibuja la gráfica de ( , )f x y , que se ve como un plano inclinado, pues f es lineal. Después proyecta el círculo verticalmente del plano xy sobre la gráfica de f . El valor máximo que buscamos corresponde al punto más alto de este círculo proyectado sobre la gráfica. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 7 2 2 1x y+ = ( , )f x y[Video: Proyección del sobre ] La forma más general En general, los problemas de optimización con restricciones involucran maximizar o minimizar una función multivariable cuya entrada tiene cualquier número de dimensiones: ( , ,...)f x y https://www.youtube.com/embed/KiR7dPaBFm0?feature=oembed DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 8 Sin embargo, su salida siempre será unidimensional, ya que no hay una noción clara del "máximo" para funciones con valores vectoriales. El tipo de restricciones con los que se aplica la técnica de los multiplicadores de Lagrange debe tomar la forma de otra función multivariable ( , ,...)g x y que sea igual una constante c . ( , ,...)g x y c= Como esta va a ser una restricción sobre la entrada de f , el número de dimensiones en la entrada de g es el mismo que el de f . El ejemplo descrito antes cumple esta forma general de la siguiente manera: 2 2 ( , ) 2 ( , ) 1 f x y x y g x y x y c = + = + = [Explicación] Existe una generalización de la técnica de los multiplicadores de Lagrange que se aplica a situaciones con múltiples restricciones en la entrada. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 9 1 1 2 2 3 3 ( , , ,...) ( , , ,...) ( , , ,...) ......................... g x y z c g x y z c g x y z c = = = En este archivo, sin embargo, solo trataremos el caso con una sola restricción. Usar mapas de curvas de nivel Razonar acerca de este problema se vuelve más fácil si visualizamos f no con una gráfica, sino con sus curvas de nivel. La observación clave es que cuando k es un máximo o un mínimo de f sujeto a la restricción, la curva de nivel de ( , )f x y k= será tangente a la curva que representa ( , )g x y c= . Dónde entra en juego el gradiente ¿Cómo reflejar, en una fórmula que podamos resolver, la idea de que dos curvas de nivel sean tangentes? https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/g/a/contour-maps https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/g/a/contour-maps DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 10 Para responder esto, recurrimos a nuestro fiel amigo el gradiente. Hay muchas maneras de interpretar f : la dirección de ascenso más pronunciado, una herramienta para calcular derivadas direccionales, etc. Pero para nuestro propósito, la propiedad que nos interesa es que el gradiente de f evaluado en el punto 0 0( , )x y siempre da un vector perpendicular a la curva de nivel que pasa por ese punto. LOS VECTORES GRADIENTES SON PERPENDICULARES A LAS CURVAS DE NIVEL https://es.khanacademy.org/math/multivariable-calculus/applications-of-multivariable-derivatives/constrained-optimization/a/partial-derivatives-and-the-gradient/a/the-gradient DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 11 Esto significa que cuando las curvas de nivel de dos funciones f y g son tangentes, sus vectores gradientes son paralelos. Así es como se podrían ver para dos funciones arbitrarias f y g : IMAGEN DE CURVAS DE NIVEL TANGENTES El hecho de que las curvas de nivel sean tangentes no nos dice nada acerca de la magnitud de cada uno de estos vectores gradientes, pero eso está bien. Cuando dos vectores apuntan en la misma dirección, significa que podemos multiplicar cualquiera de los dos por una constante para obtener el otro. Específicamente, sea 0 0( , )x y un punto particular donde las DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIASFIDEL VERA OBESO 12 curvas de nivel de f y g son tangentes (escribir 0x y 0y solo indica que estamos considerando valores constantes y, por lo tanto, un punto específico). Ya que esta tangencia significa que los vectores gradientes se alinean, esto es lo que podrías escribir: 0 0 0 0 0( , ) ( , )f x y g x y = Aquí, 0 representa alguna constante. Hay autores que usan una constante negativa 0− , pero preferimos una constante positiva, pues se obtiene una interpretación más limpia de 0 Veamos cómo se ve esto en nuestro ejemplo, donde ( , ) 2f x y x y= + . El gradiente de f es: (2 ) 2 ( , ) 1 (2 ) x y x f x y x y y + = = + y el gradiente de g es 2 2 2 2 ( 1) 2 ( , ) 2 ( 1) x y xx g x y y x y y + − = = + − DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 13 Por lo tanto, la condición de tangencia termina por verse así: 0 0 0 22 21 x y = Resolver el problema en el caso específico Para resumir en donde estamos hasta ahora, buscamos puntos de entrada 0 0( , )x y con las siguientes propiedades: ➢ 0 0( , ) 1g x y = que para nuestro ejemplo significa 2 2 0 0 1x y+ = ➢ 0 0 0 0 0( , ) ( , )f x y g x y = para alguna constante que para nuestro ejemplo significa 0 0 0 0 2 2 1 2 x y = = Hay 3 ecuaciones con 3 incógnitas, así que podemos encontrar una solución. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 14 [Mira la solución final] El enfoque será primero resolver para 0 , después usar la solución para encontrar 0x y 0y . Al usar las últimas dos ecuaciones de arriba, escribimos 0x y 0y en términos de 0 . 0 0 0 0 0 0 0 0 1 2 2 1 1 2 2 x x y y = → = = → = Para ahora hacer uso de la tercera ecuación, sustituye estos resultados en la ecuación 2 2 0 0 1x y+ = . 2 2 0 0 2 2 0 0 2 2 0 0 1 1 1 1 2 1 1 1 4 x y + = + = + = DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 15 Para quitar 0 de los denominadores, multiplicamos todo por 04 y simplificamos 2 0 2 0 0 0 4 1 4 5 4 5 4 5 2 + = = = = Al usar las expresiones para 0x y 0y en términos de 0 que encontramos arriba, estas dos soluciones corresponden con los pares ( )0 0 0 0 1 1 , , 2 2 1 2 1 , , 5 5 5 5 x y = = − − Podemos ver cuál de estos es un punto máximo y cuál es un mínimo al sustituir estas soluciones en ( , ) 2f x y x y= + y ver cuál es más grande. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 16 0 0 0 0( , ) 2 2 1 2 1 5 ( , ) 2 5 5 5 5 5 5 2 1 2 1 5 ( , ) 2 5 5 5 5 5 5 f x y x y f máx f mín = + = + = = − − = − − = − = − Función Lagrangeana JOSEPH LOUIS LAGRANGE En 1700, Joseph Louis Lagrange estudió problemas de optimización con restricciones de este tipo, y encontró una manera muy inteligente para expresar todas nuestras condiciones en una sola ecuación. DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 17 Puedes escribir estas condiciones de manera general al decir que estamos buscando constantes 0x , 0y y 0 que satisfagan las siguientes condiciones: La restricción 0 0( , )g x y c= La condición de tangencia 0 0 0 0 0( , ) ( , )f x y g x y = Esto se puede dividir en sus componentes como sigue: 0 0 0 0 0 0 0 0 0 0 ( , ) ( , ) ( , ) ( , ) x x y y f x y g x y f x y g x y = = Lagrange escribió una nueva función especial que toma las mismas variables de entrada que f y g , junto con , que ahora pensamos como una variable en lugar de una constante. ( , , ) ( , ) [ ( , ) ]L x y f x y g x y c = − − DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 18 Por ejemplo, considera nuestro ejemplo anterior 2 2 ( , ) 2 ( , ) 1 f x y x y g x y x y c = + = + = Así es cómo se vería esta nueva función: 2 2 ( , , ) ( , ) [ ( , ) ] ( , , ) 2 ( 1) L x y f x y g x y c L x y x y x y = − − = + − + − Observa que la derivada parcial de L con respecto a es ( ( , ) )g x y c− − : ( , , ) ( , ) ( ( , ) ) ( , , ) ( , ) ( ( , ) ) ( , ) 0 L x y f x y g x y c L x y f x y g x y c g x y c = − − = − − = − + = Así que podemos traducir la condición ( , )g x y c= como ( , , ) ( , ) 0L x y g x y c = − + = Es más, mira lo que obtenemos cuando hacemos una de las derivadas parciales igual a cero: DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 19 ( , , ) 0 ( , ) ( ( , ) ) 0 ( , ) ( , ) 0 ( , ) ( , ) x x x x x L x y f x y g x y c x f x y g x y f x y g x y = − − = − = = ¡Eso resulta ser otra de nuestras otras condiciones! De manera casi idéntica, la condición ( , , ) 0yL x y = se revela como ( , ) ( , )y yf x y g x y= Juntas, estas condiciones son lo mismo que decir ( , ) ( , )f x y g x y = Por lo tanto, las tres condiciones que necesitamos resolver para encontrar ,x y se resumen a que las derivadas parciales de L sean iguales a cero. Esto se puede escribir de manera extremadamente compacta al hacer el gradiente de L igual al vector cero: 0L = Por ejemplo, con nuestras funciones específicas de arriba, vemos que esto conforma el sistema de ecuaciones que tenemos que resolver: DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 20 ( ) 2 2 2 2 2 2 2 2 2 ( 1) 2 2 , , 2 ( 1) 1 2 1 2 ( 1) x y x y x x L x y x y x y y y x y x y x y + − + − − = + − + − = − − − + + − + − Como un tributo a Joseph Louis, a esta función L se llama el “lagrangeano”, y la nueva variable introducida se llama un “multiplicador de Lagrange”. Advertencia: algunos autores usan la convención en la que invierten el signo de : ( , , ) ( , ) ( ( , ) )L x y f x y g x y c = + − DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 21 Resumen OPTIMIZACIÓN RESTRINGIDA Cuando quieres maximizar (o minimizar) una función multivariable ( , ,...)f x y sujeta a la restricción de que otra función multivariable sea igual a una constante ( , ,...)g x y c= sigue estos pasos: Paso 1 introduce una nueva variable y define una nueva función L como sigue: DERIVADAS PARCIALES CON ENFOQUE POR COMPETENCIAS FIDEL VERA OBESO 22 ( , ,..., ) ( , ,...) ( ( , ,...) )L x y f x y g x y c = − − Esta función L se llama el “lagrangeano”, y la nueva variable introducida se llama un “multiplicador de Lagrange”. Paso 2 haz el gradiente de L igual al vector cero. ( , ,..., ) 0L x y = En otras palabras, encuentra los puntos críticos de L . Paso 3 considera cada solución, las cuales se ven algo como 0 0 0( , ,..., )x y . Sustituye cada una en f . O más bien, primero quita la componente 0 , después sustitúyela en f ya que no es una entrada de f . La que dé el valor más grade (o más chico) es el punto máximo (o mínimo) que estás buscando.
Compartir