Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
OPTIMIZACIÓN DE FUNCIONES ESCALARES DE VARIABLE VECTORIAL CUADRÁTICAS POR MEDIO DE UNA RED NEURONAL Considere una función escalar de variable vectorial de la forma nf : 1 Tal que xff , con nx Y un vector de restricciones de la forma nmg : 2 Tal que Tm xgxgxgg 21 El objetivo es optimizar xf sujeta a 0xg . Matemáticamente se representa como 0. xgas xfoptimizar 3 Para facilitar la obtención del valor óptimo se puede comprobar la convexidad de la función a optimizar. Así pues, para poder usar las restricciones se usan los multiplicadores de Lagrange, de manera que se crea una nueva función que contiene las restricciones. Es de la forma mnL : 4 Tal que x LL con m Y L se construye como TxgxfL 5 De forma que la optimización de transforma en 0 0 xg L 6 0 0 xg xgxf 7 Donde n i i i e x1 ˆ es el operador nabla, y iê es el vector director en la dirección de cada eje original del problema. El aplicar nabla a un campo escalar da como resultado un campo vectorial, llamado gradiente, que se obtiene como ffgrad De acuerdo con la Teoría de Optimización, una función convexa cumple con la siguiente propiedad Definición 1: Sea Sf : , donde S es un conjunto convexo no vacio. La función f es convexa en S si y solo si 2121 11 xfxfxxf 8 Y además se tienen los siguientes Teoremas de comprobación de convexidad Teorema 1: Sea S un conjunto convexo abierto y no vacio, y sea Sf : diferenciable en S . Entonces, f es convexa si y solo si para cualquier Sx se tiene xxxfxfxf T Sxcadapara Similarmente, f es estrictamente convexa si y solo si para cualquier Sx se tiene xxxfxfxf T enSxxcadapara Teorema 2: Sea S un conjunto convexo abierto y no vacio, y sea Sf : diferenciable en S . Entonces, f es convexa si y solo si para cualquier Sxx 21, se tiene 01212 xxxfxf T Similarmente, f es estrictamente convexa si y solo si para cualquier par Sxx 21, distintos se tiene 01212 xxxfxf T Teorema 3: Sea S un conjunto convexo abierto y no vacio, y sea Sf : dos veces diferenciable en S . Entonces, f es convexa si y solo si la matriz Hessiana es positiva semidefinida en cada punto del conjunto S . Teorema 4: Sea S un conjunto convexo abierto y no vacio, y sea Sf : dos veces diferenciable en S . Si la matriz Hessiana es positiva definida en cada punto del conjunto S , entonces f es estrictamente convexa. Conversamente, si f es estrictamente convexa, la matriz Hessiana es positiva semidefinida en cada punto de S . Sin embargo, si f es estrictamente convexa y cuadrática, la matriz Hessiana es positiva definida. Con estos teoremas es posible determinar la convexidad de la función f . Así, suponiendo que se sabe que la función a optimizar es convexa o estrictamente convexa, se puede minimizar o minimizar de manera estricta. De esta manera, la ecuación 3 queda entonces como 0. min xgas xf 9 Y para lograr eso, se propone una red neuronal de una capa de la forma xg dt d xgxf dt dx 10 La cual tiene por punto de estabilidad el punto óptimo buscado. Para probar los diferentes tipos de estabilidad (asintótica, exponencial; local ,global) se probará por medio de estabilidad en el sentido de Lyapunov, usando la propiedad de convexidad y convexidad estricta de la función lagrangiana L y funciones de Lyapunov. Por supuesto, el problema se vuelve más complicado cuando se consideran restricciones. De otra forma se le llama problema no restringido.
Compartir