Logo Studenta

Formulario Examen

¡Este material tiene más páginas!

Vista previa del material en texto

Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
Examen
Aplicaciones matemáticas para economía y negocios - EAF200A
Rafael Águila Felipe del Canto Bernardo Quiroga
16 de Diciembre de 2020
Formulario
Derivadas
d
dxa
x = ax ln a.
d
dx sen(x) = cos(x).
d
dx cos(x) = − sen(x).
Suma geométrica
1 + a+ · · ·+ at =
t∑
i=0
ai =
1− at+1
1− a
Fórmula de Leibniz
Si F (t) =
∫ b(t)
a(t) f(t, x) dx, entonces
F ′(t) = f(t, b(t))b′(t)− f(t, a(t))a′(t) +
∫ b(t)
a(t)
∂f
∂t
(t, x) dx
Diferencial total
Si f(x, y) es una función, su diferencial total en el punto (x0, y0) es
df = fx(x0, y0) · dx+ fy(x0, y0) · dy
Funciones homogéneas y homotéticas
Una función f es homogénea de grado k si para todo (x, y) y para todo t > 0, f(tx, ty) = tkf(x, y). Si
f(x, y) es homogénea de grado k, entonces sus derivadas parciales son homogéneas de grado k − 1, la TMS
es homogénea de grado 0 y además se cumple el teorema de Euler:
x · ∂f
∂x
(x, y) + y · ∂f
∂y
(x, y) = k · f(x, y)
Las funciones homotéticas son transformaciones crecientes de funciones homogéneas y cumplen que su
TMS es homogénea de grado 0.
Sea F una función de producción homogénea de grado k. Decimos que:
1
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
F tiene retornos decrecientes a escala si k < 1.
F tiene retornos constantes a escala si k = 1.
F tiene retornos crecientes a escala si k > 1.
Teorema de Weierstrass
Si f : D → R es continua y D es compacto (es decir, es cerrado y acotado), entonces f alcanza su máximo
y su mínimo en D.
Optimización sin restricciones
1. Condiciones necesarias de primer orden
Si f : D → R tiene un máximo o un mínimo local en D, entonces ese punto es un punto crítico.
2. Condiciones necesarias y suficientes de segundo orden
Si f(x, y) es una función y (x0, y0) es un máximo (mínimo) local de f , entonces Hf (x0, y0) es semidefinida
negativa (positiva). Además, si (x0, y0) es un punto crítico para el cual Hf (x0, y0) es:
Definida positiva, entonces (x0, y0) es un mínimo local.
Definida negativa, entonces (x0, y0) es un máximo local.
Indefinida, entonces (x0, y0) es un punto silla.
3. Concavidad y convexidad
Una función f(x, y) es convexa si para cualquier par de puntos (x0, y0), (x1, y1) y para cualquier λ ∈ (0, 1),
f (λ(x0, y0) + (1− λ)(x1, y1)) ≤ λf(x0, y0) + (1− λ)f(x1, y1)
La función se dice estrictamente convexa si la desigualdad anterior es estricta. La función es (estricta-
mente) cóncava si la desigualdad (estricta) está invertida.
Si una función es cóncava (convexa), entonces sus máximos (mínimos) locales son máximos (mínimos)
globales. Si son estrictas, además son únicos.
Se cumple además:
Una función f es cóncava (convexa) si y solo si su matriz Hessiana (Hf ) es semidefinida negativa
(positiva) en todos los puntos.
Si Hf es definida negativa (positiva) entonces f es estrictamente cóncava (convexa).
4. Matrices (semi)definidas positivas y negativas
Sea A una matriz simétrica. Un menor principal dominante (MPD) de orden k es el determinante de la matriz
que resulta de mantener las primeras k filas y columnas de A. Un menor principal (MP) es el determinante
que resulta de mantener ciertas k filas y las mismas k columnas. Luego:
A es definida positiva si y solo si todos sus MPD son positivos.
A es definida negativa si y solo si sus MPD alternan signo y el de orden 1 es negativo.
2
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
A es semidefinida positiva si y solo si sus MP son ≥ 0.
A es semidefinida negativa si y solo si sus MP de orden par son ≥ 0 y los de orden impar son ≤ 0.
Si A no es semidefinida de ningún tipo se dice que es indefinida.
5. Cuasiconcavidad y cuasiconvexidad
Para una función f(x, y), su Hessiano orlado es la matriz
H =
 0 fx fyfx fxx fxy
fy fyx fyy

Entonces
La función f es cuasicóncava si para H los MPD de orden par son negativos y los de orden impar
(mayores que 1) son positivos.
Si f es cuasicóncava, entonces para H los MPD de orden par son ≤ 0 y los de orden impar (mayores
que 1) son ≥ 0.
f es cuasicóncava si y solo si el conjunto sobrenivel P c = {(x, y) | f(x, y) ≥ c} es convexo para todo c.
Si f(x) es cuasicóncava y F (z) es estrictamente creciente, entonces F (f(x)) es cuasicóncava.
f es cuasiconvexa si y solo si −f es cuasicóncava.
Desigualdad de Jensen
Sea f(x, y) una función con dominio convexo. Entonces f es cóncava si y solo si para todo (x1, y1), . . . , (xm, ym)
y para todo λ1, . . . , λm ≥ 0 con λ1 + · · ·+ λm = 1 se cumple que
f(λ1(x1, y1) + · · ·+ λm(xm, ym)) ≥ λ1f(x1, y1) + · · ·+ λmf(xm, ym)
Sea f una función cóncava con dominio convexo. Sean x(t), λ(t) funciones continuas con dominio [a, b].
Supongamos que λ(t) ≥ 0 y que
∫ b
a λ(t) dt = 1. Entonces
f
(∫ b
a
λ(t)x(t) dt
)
≥
∫ b
a
λ(t)f(x(t)) dt
Optimización con restricciones de igualdad
En esta parte, las letras en negrita corresponden a vectores. Por ejemplo, x = (x1, . . . , xn) es un vector
en Rn.
1. Método de Lagrange
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Supongamos que x∗ ∈ Rn es la solución del problema
máx
x∈Rn
f(x)
s.a. g1(x) = c1
...
gm(x) = cm
3
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
Entonces, existen números λ∗1, . . . , λ∗m tales que (x∗, λ∗1, . . . , λ∗m) es un punto crítico de
L(x, λ1, . . . , λm) = f(x)−
m∑
j=1
λj
[
gj(x)− cj
]
2. Condiciones de suficiencia global
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Consideremos los problemas
máx
x∈Rn
f(x)
s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m}
y
mı́n
x∈Rn
f(x)
s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m}
con candidato (x∗, λ∗1, . . . , λ∗m). Definamos la función lagrangiana con λ∗j fijado para todo j
L̃(x) = f(x)−
m∑
j=1
λ∗j
[
gj(x)− cj
]
Entonces:
Si L̃(x) es cóncava, x∗ es solución del problema de maximización.
Si L̃(x) es convexa, x∗ es solución del problema de minimización.
3. Condiciones de suficiencia global con cuasiconcavidad/cuasiconvexidad
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Supongamos que el punto (x∗, λ∗1, . . . , λ∗m) satisface las condiciones del teorema de Lagrange
para el problema
máx
x,y
f(x)
s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m}
Entonces x∗ resuelve el problema si
x∗ no es un punto crítico de f .
f es cuasicóncava y λ∗jgj es cuasiconvexa para todo j.
4. Condiciones de suficiencia local (2 variables y 1 restricción)
Sea H̃ la matriz
H̃(x, y, λ) =
 0 gx(x, y) gy(x, y)gx(x, y) fxx(x, y)− λgxx(x, y) fxy(x, y)− λgxy(x, y)
gy(x, y) fxy(x, y)− λgxy(x, y) fyy(x, y)− λgyy(x, y)

Sean f y g funciones bivariadas con derivadas parciales continuas y c ∈ R. Consideremos los problemas
máx
x,y
f(x, y)
s.a. g(x, y) = c
y
mı́n
x,y
f(x, y)
s.a. g(x, y) = c
con candidato (x∗, y∗, λ∗) que verifica el teorema de Lagrange. Considere H̃∗ = H̃(x∗, y∗, λ∗) la matriz
Hessiana definida antes. Llame D al determinante de H̃∗. Entonces
Si D > 0, (x∗, y∗) es un máximo local de f entre los puntos que cumplen la restricción.
Si D < 0, (x∗, y∗) es un mínimo local de f entre los puntos que cumplen la restricción.
4
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
5. Condiciones de suficiencia local (el caso general)
Sea H̃ la matriz
H̃(x, λ1, . . . , λm) =

0 · · · 0 ∇g1(x)
...
. . .
...
...
0 · · · 0 ∇gm(x)
∇gT1 (x) · · · ∇gTm(x) HL(x, λ1, . . . , λm)

Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Consideremos el problema
máx
x∈Rn
f(x)
s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m}
con candidato (x∗, λ∗1, . . . , λ∗m). Considere H̃∗ la matriz H̃ evaluada en el candidato. Entonces,
Si para H̃∗ los últimos n−m menores principales dominantes alternan signo, y el último tiene el signo
de (−1)n, x∗ es máximo local entre los puntos que cumplenlas restricciones.
Si para H̃∗ los últimos n−m menores principales dominantes tienen el mismo signo de (−1)m, x∗ es
un mínimo local entre los puntos que cumplen las restricciones.
6. Interpretación económica de los multiplicadores
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones y sean c1, . . . , cm números reales. Consideremos el
problema
máx
x∈Rn
f(x)
s.a. gj(x) = cj ∀ j ∈ {1, . . . ,m}
con solución (x∗, λ∗1, . . . , λ∗m) que dependen de c1, . . . , cm (es decir, son funciones de m variables). Si x∗
y λ∗j son funciones con derivada continua para cada j y además se cumple la condición de calificación de
restricciones en la solución óptima. Entonces
λ∗j (c1, . . . , cm) =
∂
∂cj
f(x∗(c1, . . . , cm))
7. Teorema de la envolvente
Sean f, hj : Rn → R, con j = 1, . . . ,m funciones que dependen de un vector de parámetros a =
(a1, . . . , ak). Sean x∗(a), λ∗j (a) (con j = 1, . . . ,m) la solución óptima del problema
máx
x∈Rn
f(x;a)
s.a. hj(x;a) = 0 ∀ j ∈ {1, . . . ,m}
que tiene lagrangiano L(x, λ1, . . . , λm;a) y función de valor f∗(a). Supongamos que x∗ y λ∗j son funciones
con derivadas parciales continuas con respecto a ai para todo j y que se satisface la condición de calificación
de restricciones en la solución óptima. Entonces
∂
∂ai
f∗(a) =
∂
∂ai
L(x∗(a), λ∗1(a), . . . , λ∗m(a);a)
5
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
Optimización con restricciones de desigualdad
En esta parte, las letras en negrita corresponden a vectores. Por ejemplo, x = (x1, . . . , xn) es un vector
en Rn.
1. Condiciones necesarias de KKT
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Supongamos que x∗ ∈ Rn es la solución del problema
máx
x∈Rn
f(x)
s.a. g1(x) ≤ c1
...
gm(x) ≤ cm
Defina L(x, λ1, . . . , λm) como antes. Entonces, existen números λ∗1, . . . , λ∗m tales que:
1. Lxi(x∗, λ∗1, . . . , λ∗m) = 0 para todo i ∈ {1, . . . , n}.
2. λ∗j ≥ 0 y λ∗j
[
gj(x
∗ − cj)] = 0 para todo j ∈ {1, . . . ,m}.
3. gj(x∗) ≤ cj para todo j ∈ {1, . . . ,m}.
2. Condiciones de suficiencia global
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Consideremos el problema
máx
x∈Rn
f(x)
s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m}
con candidato (x∗, λ∗1, . . . , λ∗m)que cumple las condiciones de KKT. Definimos como antes el lagrangiano
con λ∗j fijado
L̃(x) = f(x)−
m∑
j=1
λ∗j
[
gj(x)− cj
]
Entonces, si L̃(x) es cóncava, x∗ es solución del problema.
3. Condiciones de suficiencia global con cuasiconcavidad/cuasiconvexidad
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones con derivadas parciales continuas y sean c1, . . . , cm
números reales. Supongamos que el punto (x∗, λ∗1, . . . , λ∗m) satisface las condiciones de KKT para el problema
máx
x,y
f(x)
s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m}
Entonces x∗ resuelve el problema si
x∗ no es un punto crítico de f .
f es cuasicóncava y λ∗jgj es cuasiconvexa para todo j.
6
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
4. Condiciones de suficiencia local (2 variables y 1 restricción activa)
Sea H̃ la matriz
H̃(x, y, λ) =
 0 gx(x, y) gy(x, y)gx(x, y) fxx(x, y)− λgxx(x, y) fxy(x, y)− λgxy(x, y)
gy(x, y) fxy(x, y)− λgxy(x, y) fyy(x, y)− λgyy(x, y)

Sean f y g funciones bivariadas con derivadas parciales continuas y c ∈ R. Consideremos el problema
máx
x,y
f(x, y)
s.a. g(x, y) ≤ c
con candidato (x∗, y∗, λ∗) que verifica las condiciones de KKT. Considere H̃∗ = H̃(x∗, y∗, λ∗) la matriz
Hessiana definida antes, evaluada en el candidato. Llame D al determinante de H̃∗. Entonces
Si D > 0, (x∗, y∗) es un máximo local de f entre los puntos que cumplen la restricción.
Si D < 0, (x∗, y∗) es un mínimo local de f entre los puntos que cumplen la restricción.
5. Condiciones de suficiencia local (el caso general)
Suponga que para un candidato a solución (x∗, λ∗1, . . . , λ∗m) del problema
máx
x∈Rn
f(x)
s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m}
las primeras k restricciones están activas. Con esto se define H̃ la matriz
H̃(x, λ1, . . . , λm) =

0 · · · 0 ∇g1(x)
...
. . .
...
...
0 · · · 0 ∇gk(x)
∇gT1 (x) · · · ∇gTk (x) HL(x, λ1, . . . , λm)

Note que si k = 0, entonces no se pone ningún gradiente y H̃ es la matriz Hessiana de f . Considere H̃∗
la matriz H̃ evaluada en el candidato. Entonces,
Si para H̃∗ los últimos n− k menores principales dominantes alternan signo, y el último tiene el signo
de (−1)n, x∗ es máximo local entre los puntos que cumplen las restricciones.
Si para H̃∗ los últimos n− k menores principales dominantes tienen el mismo signo de (−1)k, x∗ es un
mínimo local entre los puntos que cumplen las restricciones.
6. Interpretación económica de los multiplicadores
Sean f, gj : Rn → R, con j = 1, . . . ,m funciones y sean c1, . . . , cm números reales. Consideremos el
problema
máx
x∈Rn
f(x)
s.a. gj(x) ≤ cj ∀ j ∈ {1, . . . ,m}
con solución (x∗, λ∗1, . . . , λ∗m) que dependen de c1, . . . , cm (es decir, son funciones de m variables). Si x∗
y λ∗j son funciones con derivada continua para cada j y además se cumple la condición de calificación de
restricciones en la solución óptima. Entonces
λ∗j (c1, . . . , cm) =
∂
∂cj
f(x∗(c1, . . . , cm))
7
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
7. Teorema de la envolvente
Sean f, hj : Rn → R, con j = 1, . . . ,m funciones que dependen de un vector de parámetros a =
(a1, . . . , ak). Sean x∗(a), λ∗j (a) (con j = 1, . . . ,m) la solución óptima del problema
máx
x∈Rn
f(x;a)
s.a. hj(x;a) ≤ 0 ∀ j ∈ {1, . . . ,m}
que tiene lagrangiano L(x, λ1, . . . , λm;a) y función de valor f∗(a). Supongamos que x∗ y λ∗j son funciones
con derivadas parciales continuas con respecto a ai para todo j y que se satisface la condición de calificación
de restricciones en la solución óptima. Entonces
∂
∂ai
f∗(a) =
∂
∂ai
L(x∗(a), λ∗1(a), . . . , λ∗m(a);a)
Ecuaciones en diferencias (EeD)
1. Teorema de existencia y unicidad
Considere el problema de encontrar una solución a la siguiente EeD de orden k
xt+k = f(t, xt+k−1, . . . , xt)
que además verifique x0 = c0, x1 = c1, . . . , xk−1 = ck−1. Este problema tiene una única solución.
2. Combinaciones lineales de soluciones
Considere la EeD lineal homogénea
xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = 0, t ∈ N0, t ≥ t0
Sea xt una solución y sea c1 ∈ R. Entonces el sistema dinámico c1xt también es solución.
Además, si yt es otra solución y c2 ∈ R, entonces el sistema dinámico c1xt + c2yt también es solución.
3. Solución general a la ecuación en diferencias lineal no homogénea
Considere la EeD lineal no homogénea
xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = g(t), t ∈ N0, t ≥ t0
y sea yt una solución particular. Sea xt una solución a la ecuación homogénea asociada,
xt+k + ak−1(t)xt+k−1 + · · ·+ a0(t)xt = 0, t ∈ N0, t ≥ t0
Entonces toda solución para la EeD lineal no homogénea es de la forma cxt + yt con c ∈ R.
4. EeDs lineales de primer orden con coeficientes constantes
Considere la EeD lineal homogénea
xt+1 = axt, t ≥ 0
donde a ∈ R. Entonces toda solución a esta ecuación es de la forma cat, con c ∈ R.
Considere la EeD lineal no homogénea
xt+1 = axt + b, t ≥ 0
donde a, b ∈ R. Entonces son soluciones particulares:
8
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
at−1
a−1 b, si a 6= 1.
bt, si a = 1.
5. EeDs lineales de segundo orden con coeficientes constantes
Considere la EeD lineal homogénea
xt+2 + a1xt+1 + a0xt = 0, t ≥ 0
donde a1, a0,∈ R. Sean λ1, λ2 ∈ C las dos soluciones de la ecuación característica
λ2 + a1λ+ a0 = 0
Entonces la solución general de EeD lineal homogénea es:
1. c1λt1 + c2λt2 si λ1 6= λ2.
2. c1λt1 + c2λt2t si λ1 = λ2.
Además, c1, c2 son tales que la solución es un número real para todo t.
6. Método de los coeficientes indeterminados para EeDs lineales
Considere las EeDs lineales no homogéneas
xt+1 = axt + bt, t ≥ 0
xt+2 + a1xt+1 + a0xt = bt
Entonces, la forma de la soluciónparticular puede obtenerse de la siguiente tabla:
bt Candidato
bat Aat
sen(bt) ó cos(bt) A sen(bt) +B cos(bt)
btn A0 +A1t+ · · ·+Antn
Y si bt es combinación de algunas de las opciones, el candidato también lo es.
7. Puntos fijos y soluciones a EeDs lineales
Suponga que xt es solución a alguna de las siguientes EeDs lineales
xt+1 = axt + b (1)
xt+2 + a1xt+1 + a0xt = b (2)
y suponga que x∗ es un punto fijo de xt. Entonces,
Si xt resuelve (1), xt = at(x0 − x∗) + x∗.
Si xt resuelve (2), entonces xt = x̃t + x∗, donde x̃t es solución general a la versión homogénea de (2).
8. Estabilidad de puntos fijos
Sea f una función continuamente diferenciable y sea xt un sistema dinámico que satisface la siguiente
EeD de primer orden
xt+1 = f(xt)
Sea x∗ un punto fijo de xt. Entonces
Si |f ′(x∗)| < 1, entonces x∗ es localmente estable.
Si |f ′(x∗)| > 1, entonces x∗ no es localmente estable (ni globalmente estable).
9
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
Ecuaciones diferenciales (ED)
1. Teorema de existencia y unicidad
Sea D un intervalo real que contiene al 0. Considere el problema de encontrar una solución a la siguiente
ED lineal de orden k
y(k)(t) + ak−1(t)y
(k−1)(t) + · · ·+ a0(t)y(t) = f(t), t ∈ D
que además verifique y(0) = c0, y(1)(0) = c1, . . . , y(k−1)(0) = ck−1. Si f y aj (con j = 1, . . . , k − 1) son
funciones continuas en D, entonces este problema tiene una única solución. Esto es, existe un único sistema
dinámico y(t) que verifica la ED en todo D.
2. Combinaciones lineales de soluciones
Sea D un intervalo real. Considere la ED lineal homogénea
y(k)(t) + ak−1(t)y
(k−1)(t) + · · ·+ a0(t)y(t) = 0, t ∈ D
Sea y1(t) una solución y sea c1 ∈ R. Entonces el sistema dinámico c1y2(t) también es solución.
Además, si y2(t) es otra solución y c2 ∈ R, entonces el sistema dinámico c1y1(t) + c2y2(t) también es
solución.
3. Solución general a la ecuación diferencial lineal no homogénea
Considere la ED lineal no homogénea
y(k)(t) + ak−1(t)y
(k−1)(t) + · · ·+ a0(t)y(t) = g(t), t ∈ DD intervalo
y sea yp(t) una solución particular. Sea yg(t) la solución general a la ecuación homogénea asociada,
y(k)(t) + ak−1(t)y
(k−1)(t) + · · ·+ a0(t)y(t) = 0, t ∈ D, D intervalo
Entonces toda solución para la EDL no homogénea es de la forma yg(t) + yp.
4. EDs lineales de primer orden con coeficientes constantes
Considere la ED lineal homogénea
y′(t) + ay(t) = 0, t ∈ D, D intervalo
donde a ∈ R. Entonces toda solución a esta ecuación es de la forma ce−at, con c ∈ R.
Considere la ED lineal no homogénea
y′(t) + ay(t) = b, t ∈ D, D intervalo
donde a, b ∈ R. Entonces y(t) = ba es una solución particular.
10
Aplicaciones matemáticas para economía y negocios EAF200A 2S 2020
5. Método de los coeficientes indeterminados para EDs lineales
Considere la ED lineal no homogénea
y′(t) + a(t)y(t) = b(t), t ≥ 0
Entonces, la forma de la solución particular puede obtenerse de la siguiente tabla:
b(t) Candidato
bekt Aekt
sen(bt) ó cos(bt) A sen(bt) +B cos(bt)
btn A0 +A1t+ · · ·+Antn
Y si b(t) es combinación de algunas de las opciones, el candidato también lo es.
6. Puntos fijos y soluciones a EDs lineales
Suponga que y(t) es solución de
y′(t) + ay(t) = b
y suponga que y∗ es una solución estacionaria. Entonces,
y(t) = e−at
(
y(0)− y∗
)
+ y∗
7. Estabilidad de puntos fijos (versión diferencial)
Sea f una función continuamente diferenciable y sea y(t) un sistema dinámico que satisface la siguiente
ED de primer orden
y′(t) = f
(
y(t)
)
Sea y∗ un punto fijo de y(t). Entonces:
Si f ′(y∗) < 0, entonces y∗ es localmente estable.
Si f ′(y∗) > 0, entonces y∗ no es localmente estable (ni globalmente estable).
8. Estabilidad de puntos fijos (versión no diferencial)
Sea f una función continua y sea y(t) un sistema dinámico que satisface la siguiente ED de primer orden
y′(t) = f
(
y(t)
)
Sea y∗ un punto fijo de y(t). Entonces, si cerca de y∗
f(y∗) cambia de signo de positivo a negativo, entonces y∗ es localmente estable.
f(y∗) cambia de signo de negativo a positivo, entonces y∗ no es localmente estable.
9. Estabilidad global de puntos fijos
Sea f una función continua y sea y(t) un sistema dinámico que satisface la siguiente ED de primer orden
y′(t) = f
(
y(t)
)
Suponga que y∗ es el único punto fijo de y(t). Entonces y∗ es globalmente estable si y solo si es localmente
estable.
11

Continuar navegando