Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 Examen Aplicaciones matemáticas para economía y negocios - EAF200A Rafael Águila Felipe del Canto Bernardo Quiroga 16 de Diciembre de 2020 Formulario Derivadas d dxa x = ax ln a. d dx sen(x) = cos(x). d dx cos(x) = − sen(x). Suma geométrica 1 + a+ · · ·+ at = t∑ i=0 ai = 1− at+1 1− a Fórmula de Leibniz Si F (t) = ∫ b(t) a(t) f(t, x) dx, entonces F ′(t) = f(t, b(t))b′(t)− f(t, a(t))a′(t) + ∫ b(t) a(t) ∂f ∂t (t, x) dx Diferencial total Si f(x, y) es una función, su diferencial total en el punto (x0, y0) es df = fx(x0, y0) · dx+ fy(x0, y0) · dy Funciones homogéneas y homotéticas Una función f es homogénea de grado k si para todo (x, y) y para todo t > 0, f(tx, ty) = tkf(x, y). Si f(x, y) es homogénea de grado k, entonces sus derivadas parciales son homogéneas de grado k − 1, la TMS es homogénea de grado 0 y además se cumple el teorema de Euler: x · ∂f ∂x (x, y) + y · ∂f ∂y (x, y) = k · f(x, y) Las funciones homotéticas son transformaciones crecientes de funciones homogéneas y cumplen que su TMS es homogénea de grado 0. Sea F una función de producción homogénea de grado k. Decimos que: 1 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 F tiene retornos decrecientes a escala si k < 1. F tiene retornos constantes a escala si k = 1. F tiene retornos crecientes a escala si k > 1. Teorema de Weierstrass Si f : D → R es continua y D es compacto (es decir, es cerrado y acotado), entonces f alcanza su máximo y su mínimo en D. Optimización sin restricciones 1. Condiciones necesarias de primer orden Si f : D → R tiene un máximo o un mínimo local en D, entonces ese punto es un punto crítico. 2. Condiciones necesarias y suficientes de segundo orden Si f(x, y) es una función y (x0, y0) es un máximo (mínimo) local de f , entonces Hf (x0, y0) es semidefinida negativa (positiva). Además, si (x0, y0) es un punto crítico para el cual Hf (x0, y0) es: Definida positiva, entonces (x0, y0) es un mínimo local. Definida negativa, entonces (x0, y0) es un máximo local. Indefinida, entonces (x0, y0) es un punto silla. 3. Concavidad y convexidad Una función f(x, y) es convexa si para cualquier par de puntos (x0, y0), (x1, y1) y para cualquier λ ∈ (0, 1), f (λ(x0, y0) + (1− λ)(x1, y1)) ≤ λf(x0, y0) + (1− λ)f(x1, y1) La función se dice estrictamente convexa si la desigualdad anterior es estricta. La función es (estricta- mente) cóncava si la desigualdad (estricta) está invertida. Si una función es cóncava (convexa), entonces sus máximos (mínimos) locales son máximos (mínimos) globales. Si son estrictas, además son únicos. Se cumple además: Una función f es cóncava (convexa) si y solo si su matriz Hessiana (Hf ) es semidefinida negativa (positiva) en todos los puntos. Si Hf es definida negativa (positiva) entonces f es estrictamente cóncava (convexa). 4. Matrices (semi)definidas positivas y negativas Sea A una matriz simétrica. Un menor principal dominante (MPD) de orden k es el determinante de la matriz que resulta de mantener las primeras k filas y columnas de A. Un menor principal (MP) es el determinante que resulta de mantener ciertas k filas y las mismas k columnas. Luego: A es definida positiva si y solo si todos sus MPD son positivos. A es definida negativa si y solo si sus MPD alternan signo y el de orden 1 es negativo. 2 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 A es semidefinida positiva si y solo si sus MP son ≥ 0. A es semidefinida negativa si y solo si sus MP de orden par son ≥ 0 y los de orden impar son ≤ 0. Si A no es semidefinida de ningún tipo se dice que es indefinida. 5. Cuasiconcavidad y cuasiconvexidad Para una función f(x, y), su Hessiano orlado es la matriz H = 0 fx fyfx fxx fxy fy fyx fyy Entonces La función f es cuasicóncava si para H los MPD de orden par son negativos y los de orden impar (mayores que 1) son positivos. Si f es cuasicóncava, entonces para H los MPD de orden par son ≤ 0 y los de orden impar (mayores que 1) son ≥ 0. f es cuasicóncava si y solo si el conjunto sobrenivel P c = {(x, y) | f(x, y) ≥ c} es convexo para todo c. Si f(x) es cuasicóncava y F (z) es estrictamente creciente, entonces F (f(x)) es cuasicóncava. f es cuasiconvexa si y solo si −f es cuasicóncava. Desigualdad de Jensen Sea f(x, y) una función con dominio convexo. Entonces f es cóncava si y solo si para todo (x1, y1), . . . , (xm, ym) y para todo λ1, . . . , λm ≥ 0 con λ1 + · · ·+ λm = 1 se cumple que f(λ1(x1, y1) + · · ·+ λm(xm, ym)) ≥ λ1f(x1, y1) + · · ·+ λmf(xm, ym) Sea f una función cóncava con dominio convexo. Sean x(t), λ(t) funciones continuas con dominio [a, b]. Supongamos que λ(t) ≥ 0 y que ∫ b a λ(t) dt = 1. Entonces f (∫ b a λ(t)x(t) dt ) ≥ ∫ b a λ(t)f(x(t)) dt Optimización con restricciones de igualdad En esta parte, las letras en negrita corresponden a vectores. Por ejemplo, x = (x1, . . . , xn) es un vector en Rn. 1. Método de Lagrange Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Supongamos que x∗ ∈ Rn es la solución del problema máx x∈Rn f(x) s.a. g1(x) = c1 ... gm(x) = cm 3 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 Entonces, existen números λ∗1, . . . , λ∗m tales que (x∗, λ∗1, . . . , λ∗m) es un punto crítico de L(x, λ1, . . . , λm) = f(x)− m∑ j=1 λj [ gj(x)− cj ] 2. Condiciones de suficiencia global Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Consideremos los problemas máx x∈Rn f(x) s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m} y mı́n x∈Rn f(x) s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m} con candidato (x∗, λ∗1, . . . , λ∗m). Definamos la función lagrangiana con λ∗j fijado para todo j L̃(x) = f(x)− m∑ j=1 λ∗j [ gj(x)− cj ] Entonces: Si L̃(x) es cóncava, x∗ es solución del problema de maximización. Si L̃(x) es convexa, x∗ es solución del problema de minimización. 3. Condiciones de suficiencia global con cuasiconcavidad/cuasiconvexidad Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Supongamos que el punto (x∗, λ∗1, . . . , λ∗m) satisface las condiciones del teorema de Lagrange para el problema máx x,y f(x) s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m} Entonces x∗ resuelve el problema si x∗ no es un punto crítico de f . f es cuasicóncava y λ∗jgj es cuasiconvexa para todo j. 4. Condiciones de suficiencia local (2 variables y 1 restricción) Sea H̃ la matriz H̃(x, y, λ) = 0 gx(x, y) gy(x, y)gx(x, y) fxx(x, y)− λgxx(x, y) fxy(x, y)− λgxy(x, y) gy(x, y) fxy(x, y)− λgxy(x, y) fyy(x, y)− λgyy(x, y) Sean f y g funciones bivariadas con derivadas parciales continuas y c ∈ R. Consideremos los problemas máx x,y f(x, y) s.a. g(x, y) = c y mı́n x,y f(x, y) s.a. g(x, y) = c con candidato (x∗, y∗, λ∗) que verifica el teorema de Lagrange. Considere H̃∗ = H̃(x∗, y∗, λ∗) la matriz Hessiana definida antes. Llame D al determinante de H̃∗. Entonces Si D > 0, (x∗, y∗) es un máximo local de f entre los puntos que cumplen la restricción. Si D < 0, (x∗, y∗) es un mínimo local de f entre los puntos que cumplen la restricción. 4 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 5. Condiciones de suficiencia local (el caso general) Sea H̃ la matriz H̃(x, λ1, . . . , λm) = 0 · · · 0 ∇g1(x) ... . . . ... ... 0 · · · 0 ∇gm(x) ∇gT1 (x) · · · ∇gTm(x) HL(x, λ1, . . . , λm) Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Consideremos el problema máx x∈Rn f(x) s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m} con candidato (x∗, λ∗1, . . . , λ∗m). Considere H̃∗ la matriz H̃ evaluada en el candidato. Entonces, Si para H̃∗ los últimos n−m menores principales dominantes alternan signo, y el último tiene el signo de (−1)n, x∗ es máximo local entre los puntos que cumplenlas restricciones. Si para H̃∗ los últimos n−m menores principales dominantes tienen el mismo signo de (−1)m, x∗ es un mínimo local entre los puntos que cumplen las restricciones. 6. Interpretación económica de los multiplicadores Sean f, gj : Rn → R, con j = 1, . . . ,m funciones y sean c1, . . . , cm números reales. Consideremos el problema máx x∈Rn f(x) s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m} con solución (x∗, λ∗1, . . . , λ∗m) que dependen de c1, . . . , cm (es decir, son funciones de m variables). Si x∗ y λ∗j son funciones con derivada continua para cada j y además se cumple la condición de calificación de restricciones en la solución óptima. Entonces λ∗j (c1, . . . , cm) = ∂ ∂cj f(x∗(c1, . . . , cm)) 7. Teorema de la envolvente Sean f, hj : Rn → R, con j = 1, . . . ,m funciones que dependen de un vector de parámetros a = (a1, . . . , ak). Sean x∗(a), λ∗j (a) (con j = 1, . . . ,m) la solución óptima del problema máx x∈Rn f(x;a) s.a. hj(x;a) = 0 ∀ j ∈ {1, . . . ,m} que tiene lagrangiano L(x, λ1, . . . , λm;a) y función de valor f∗(a). Supongamos que x∗ y λ∗j son funciones con derivadas parciales continuas con respecto a ai para todo j y que se satisface la condición de calificación de restricciones en la solución óptima. Entonces ∂ ∂ai f∗(a) = ∂ ∂ai L(x∗(a), λ∗1(a), . . . , λ∗m(a);a) 5 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 Optimización con restricciones de desigualdad En esta parte, las letras en negrita corresponden a vectores. Por ejemplo, x = (x1, . . . , xn) es un vector en Rn. 1. Condiciones necesarias de KKT Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Supongamos que x∗ ∈ Rn es la solución del problema máx x∈Rn f(x) s.a. g1(x) ≤ c1 ... gm(x) ≤ cm Defina L(x, λ1, . . . , λm) como antes. Entonces, existen números λ∗1, . . . , λ∗m tales que: 1. Lxi(x∗, λ∗1, . . . , λ∗m) = 0 para todo i ∈ {1, . . . , n}. 2. λ∗j ≥ 0 y λ∗j [ gj(x ∗ − cj)] = 0 para todo j ∈ {1, . . . ,m}. 3. gj(x∗) ≤ cj para todo j ∈ {1, . . . ,m}. 2. Condiciones de suficiencia global Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Consideremos el problema máx x∈Rn f(x) s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m} con candidato (x∗, λ∗1, . . . , λ∗m)que cumple las condiciones de KKT. Definimos como antes el lagrangiano con λ∗j fijado L̃(x) = f(x)− m∑ j=1 λ∗j [ gj(x)− cj ] Entonces, si L̃(x) es cóncava, x∗ es solución del problema. 3. Condiciones de suficiencia global con cuasiconcavidad/cuasiconvexidad Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm números reales. Supongamos que el punto (x∗, λ∗1, . . . , λ∗m) satisface las condiciones de KKT para el problema máx x,y f(x) s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m} Entonces x∗ resuelve el problema si x∗ no es un punto crítico de f . f es cuasicóncava y λ∗jgj es cuasiconvexa para todo j. 6 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 4. Condiciones de suficiencia local (2 variables y 1 restricción activa) Sea H̃ la matriz H̃(x, y, λ) = 0 gx(x, y) gy(x, y)gx(x, y) fxx(x, y)− λgxx(x, y) fxy(x, y)− λgxy(x, y) gy(x, y) fxy(x, y)− λgxy(x, y) fyy(x, y)− λgyy(x, y) Sean f y g funciones bivariadas con derivadas parciales continuas y c ∈ R. Consideremos el problema máx x,y f(x, y) s.a. g(x, y) ≤ c con candidato (x∗, y∗, λ∗) que verifica las condiciones de KKT. Considere H̃∗ = H̃(x∗, y∗, λ∗) la matriz Hessiana definida antes, evaluada en el candidato. Llame D al determinante de H̃∗. Entonces Si D > 0, (x∗, y∗) es un máximo local de f entre los puntos que cumplen la restricción. Si D < 0, (x∗, y∗) es un mínimo local de f entre los puntos que cumplen la restricción. 5. Condiciones de suficiencia local (el caso general) Suponga que para un candidato a solución (x∗, λ∗1, . . . , λ∗m) del problema máx x∈Rn f(x) s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m} las primeras k restricciones están activas. Con esto se define H̃ la matriz H̃(x, λ1, . . . , λm) = 0 · · · 0 ∇g1(x) ... . . . ... ... 0 · · · 0 ∇gk(x) ∇gT1 (x) · · · ∇gTk (x) HL(x, λ1, . . . , λm) Note que si k = 0, entonces no se pone ningún gradiente y H̃ es la matriz Hessiana de f . Considere H̃∗ la matriz H̃ evaluada en el candidato. Entonces, Si para H̃∗ los últimos n− k menores principales dominantes alternan signo, y el último tiene el signo de (−1)n, x∗ es máximo local entre los puntos que cumplen las restricciones. Si para H̃∗ los últimos n− k menores principales dominantes tienen el mismo signo de (−1)k, x∗ es un mínimo local entre los puntos que cumplen las restricciones. 6. Interpretación económica de los multiplicadores Sean f, gj : Rn → R, con j = 1, . . . ,m funciones y sean c1, . . . , cm números reales. Consideremos el problema máx x∈Rn f(x) s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m} con solución (x∗, λ∗1, . . . , λ∗m) que dependen de c1, . . . , cm (es decir, son funciones de m variables). Si x∗ y λ∗j son funciones con derivada continua para cada j y además se cumple la condición de calificación de restricciones en la solución óptima. Entonces λ∗j (c1, . . . , cm) = ∂ ∂cj f(x∗(c1, . . . , cm)) 7 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 7. Teorema de la envolvente Sean f, hj : Rn → R, con j = 1, . . . ,m funciones que dependen de un vector de parámetros a = (a1, . . . , ak). Sean x∗(a), λ∗j (a) (con j = 1, . . . ,m) la solución óptima del problema máx x∈Rn f(x;a) s.a. hj(x;a) ≤ 0 ∀ j ∈ {1, . . . ,m} que tiene lagrangiano L(x, λ1, . . . , λm;a) y función de valor f∗(a). Supongamos que x∗ y λ∗j son funciones con derivadas parciales continuas con respecto a ai para todo j y que se satisface la condición de calificación de restricciones en la solución óptima. Entonces ∂ ∂ai f∗(a) = ∂ ∂ai L(x∗(a), λ∗1(a), . . . , λ∗m(a);a) Ecuaciones en diferencias (EeD) 1. Teorema de existencia y unicidad Considere el problema de encontrar una solución a la siguiente EeD de orden k xt+k = f(t, xt+k−1, . . . , xt) que además verifique x0 = c0, x1 = c1, . . . , xk−1 = ck−1. Este problema tiene una única solución. 2. Combinaciones lineales de soluciones Considere la EeD lineal homogénea xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = 0, t ∈ N0, t ≥ t0 Sea xt una solución y sea c1 ∈ R. Entonces el sistema dinámico c1xt también es solución. Además, si yt es otra solución y c2 ∈ R, entonces el sistema dinámico c1xt + c2yt también es solución. 3. Solución general a la ecuación en diferencias lineal no homogénea Considere la EeD lineal no homogénea xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = g(t), t ∈ N0, t ≥ t0 y sea yt una solución particular. Sea xt una solución a la ecuación homogénea asociada, xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = 0, t ∈ N0, t ≥ t0 Entonces toda solución para la EeD lineal no homogénea es de la forma cxt + yt con c ∈ R. 4. EeDs lineales de primer orden con coeficientes constantes Considere la EeD lineal homogénea xt+1 = axt, t ≥ 0 donde a ∈ R. Entonces toda solución a esta ecuación es de la forma cat, con c ∈ R. Considere la EeD lineal no homogénea xt+1 = axt + b, t ≥ 0 donde a, b ∈ R. Entonces son soluciones particulares: 8 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 at−1 a−1 b, si a 6= 1. bt, si a = 1. 5. EeDs lineales de segundo orden con coeficientes constantes Considere la EeD lineal homogénea xt+2 + a1xt+1 + a0xt = 0, t ≥ 0 donde a1, a0,∈ R. Sean λ1, λ2 ∈ C las dos soluciones de la ecuación característica λ2 + a1λ+ a0 = 0 Entonces la solución general de EeD lineal homogénea es: 1. c1λt1 + c2λt2 si λ1 6= λ2. 2. c1λt1 + c2λt2t si λ1 = λ2. Además, c1, c2 son tales que la solución es un número real para todo t. 6. Método de los coeficientes indeterminados para EeDs lineales Considere las EeDs lineales no homogéneas xt+1 = axt + bt, t ≥ 0 xt+2 + a1xt+1 + a0xt = bt Entonces, la forma de la soluciónparticular puede obtenerse de la siguiente tabla: bt Candidato bat Aat sen(bt) ó cos(bt) A sen(bt) +B cos(bt) btn A0 +A1t+ · · ·+Antn Y si bt es combinación de algunas de las opciones, el candidato también lo es. 7. Puntos fijos y soluciones a EeDs lineales Suponga que xt es solución a alguna de las siguientes EeDs lineales xt+1 = axt + b (1) xt+2 + a1xt+1 + a0xt = b (2) y suponga que x∗ es un punto fijo de xt. Entonces, Si xt resuelve (1), xt = at(x0 − x∗) + x∗. Si xt resuelve (2), entonces xt = x̃t + x∗, donde x̃t es solución general a la versión homogénea de (2). 8. Estabilidad de puntos fijos Sea f una función continuamente diferenciable y sea xt un sistema dinámico que satisface la siguiente EeD de primer orden xt+1 = f(xt) Sea x∗ un punto fijo de xt. Entonces Si |f ′(x∗)| < 1, entonces x∗ es localmente estable. Si |f ′(x∗)| > 1, entonces x∗ no es localmente estable (ni globalmente estable). 9 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 Ecuaciones diferenciales (ED) 1. Teorema de existencia y unicidad Sea D un intervalo real que contiene al 0. Considere el problema de encontrar una solución a la siguiente ED lineal de orden k y(k)(t) + ak−1(t)y (k−1)(t) + · · ·+ a0(t)y(t) = f(t), t ∈ D que además verifique y(0) = c0, y(1)(0) = c1, . . . , y(k−1)(0) = ck−1. Si f y aj (con j = 1, . . . , k − 1) son funciones continuas en D, entonces este problema tiene una única solución. Esto es, existe un único sistema dinámico y(t) que verifica la ED en todo D. 2. Combinaciones lineales de soluciones Sea D un intervalo real. Considere la ED lineal homogénea y(k)(t) + ak−1(t)y (k−1)(t) + · · ·+ a0(t)y(t) = 0, t ∈ D Sea y1(t) una solución y sea c1 ∈ R. Entonces el sistema dinámico c1y2(t) también es solución. Además, si y2(t) es otra solución y c2 ∈ R, entonces el sistema dinámico c1y1(t) + c2y2(t) también es solución. 3. Solución general a la ecuación diferencial lineal no homogénea Considere la ED lineal no homogénea y(k)(t) + ak−1(t)y (k−1)(t) + · · ·+ a0(t)y(t) = g(t), t ∈ DD intervalo y sea yp(t) una solución particular. Sea yg(t) la solución general a la ecuación homogénea asociada, y(k)(t) + ak−1(t)y (k−1)(t) + · · ·+ a0(t)y(t) = 0, t ∈ D, D intervalo Entonces toda solución para la EDL no homogénea es de la forma yg(t) + yp. 4. EDs lineales de primer orden con coeficientes constantes Considere la ED lineal homogénea y′(t) + ay(t) = 0, t ∈ D, D intervalo donde a ∈ R. Entonces toda solución a esta ecuación es de la forma ce−at, con c ∈ R. Considere la ED lineal no homogénea y′(t) + ay(t) = b, t ∈ D, D intervalo donde a, b ∈ R. Entonces y(t) = ba es una solución particular. 10 Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020 5. Método de los coeficientes indeterminados para EDs lineales Considere la ED lineal no homogénea y′(t) + a(t)y(t) = b(t), t ≥ 0 Entonces, la forma de la solución particular puede obtenerse de la siguiente tabla: b(t) Candidato bekt Aekt sen(bt) ó cos(bt) A sen(bt) +B cos(bt) btn A0 +A1t+ · · ·+Antn Y si b(t) es combinación de algunas de las opciones, el candidato también lo es. 6. Puntos fijos y soluciones a EDs lineales Suponga que y(t) es solución de y′(t) + ay(t) = b y suponga que y∗ es una solución estacionaria. Entonces, y(t) = e−at ( y(0)− y∗ ) + y∗ 7. Estabilidad de puntos fijos (versión diferencial) Sea f una función continuamente diferenciable y sea y(t) un sistema dinámico que satisface la siguiente ED de primer orden y′(t) = f ( y(t) ) Sea y∗ un punto fijo de y(t). Entonces: Si f ′(y∗) < 0, entonces y∗ es localmente estable. Si f ′(y∗) > 0, entonces y∗ no es localmente estable (ni globalmente estable). 8. Estabilidad de puntos fijos (versión no diferencial) Sea f una función continua y sea y(t) un sistema dinámico que satisface la siguiente ED de primer orden y′(t) = f ( y(t) ) Sea y∗ un punto fijo de y(t). Entonces, si cerca de y∗ f(y∗) cambia de signo de positivo a negativo, entonces y∗ es localmente estable. f(y∗) cambia de signo de negativo a positivo, entonces y∗ no es localmente estable. 9. Estabilidad global de puntos fijos Sea f una función continua y sea y(t) un sistema dinámico que satisface la siguiente ED de primer orden y′(t) = f ( y(t) ) Suponga que y∗ es el único punto fijo de y(t). Entonces y∗ es globalmente estable si y solo si es localmente estable. 11
Compartir