Logo Studenta

Sistemas de ecuaciones y el teorema de Rouche-Frobenius

¡Estudia con miles de materiales!

Vista previa del material en texto

Álgebra y Geometría Analítica, año 2023 
Clase 13: sistemas de ecuaciones lineales y el teorema de Rouché-Frobenius 
 
En esta clase veremos algunos detalles teóricos sobre sistemas de ecuaciones lineales. En ese sentido, la 
unidad 4, cuyos contenidos entran todos en esta clase, es una continuación de la unidad 2. Pero si no 
estudian a fondo esta clase, los ejercicios de sistemas de ecuaciones lineales los pueden resolver sin 
inconvenientes con lo visto en la clase 9. Sólo hay que recordar un par de definiciones nuevas que veremos 
aquí, y cómo se relacionan con lo visto antes. Recuerden que algunos ejercicios de la guía 4 se pueden hacer 
con los contenidos de la clase 9: los ejercicios 3-b, 4, 7-a, 8-a, 9-a. Y el ejercicio 2, que es de cálculo de 
inversa de una matriz, también se puede hacer sin leer esta clase. 
 
Rango de una matriz (ej. 1 y 3 de la guía 4) 
Definiciones: sea A una matriz de cualquier tamaño (no hace falta que sea cuadrada) 
 Llamamos rango fila de A a la cantidad de filas linealmente independientes que tiene la matriz A 
 Llamamos rango columna de A a la cantidad de columnas linealmente independientes que tiene la 
matriz A 
Se puede demostrar (no lo haremos aquí) que para toda matriz, su rango fila coincide con su rango 
columna. Entonces, cuando hablamos de rango, no es necesario distinguir si se trata de rango fila o de 
rango columna. 
 Llamaremos rango de A, y lo notaremos como rg(A), a la cantidad de filas (o de columnas) 
linealmente independientes que tiene la matriz A. 
 
Para calcular el rango de una matriz, podemos ayudarnos con nuestro método “trucho”, en el cual 
aplicamos las operaciones de Gauss-Jordan (pero recuerden que esto no proviene de plantear ningún 
sistema, es sólo un método práctico): escribimos la matriz y la llevamos a la forma triangulada y escalonada. 
La cantidad de filas que quedan sin anularse corresponderá al rango (fila) de la matriz. También podemos 
hacerlo con la matriz transpuesta, ya que rango fila y rango columna siempre coinciden. Pero en algunos 
casos simples, el rango sale a simple vista. 
 
Ejemplo: calcular el rango de 𝐀 = 
𝟏 𝟏
−𝟏 𝟗
 ;𝐁 = 
𝟏 𝟎
𝟒 𝟎
−𝟏 𝟎
 ; 𝐂 = 
𝟏 𝟎 𝟏 𝟏
𝟒 𝟑 𝟏 −𝟏
𝟐 𝟑 −𝟏 −𝟑
 
 
𝐀 = 
𝟏 𝟏
−𝟏 𝟗
 es una matriz que solamente tiene dos filas. Como las dos filas no son múltiplos entre sí, son 
linealmente independientes  rg(A) = 2 
 
𝐁 = 
𝟏 𝟎
𝟒 𝟎
−𝟏 𝟎
 es una matriz que solamente tiene tres filas y dos columnas. Como una columna es nula, 
esa no cuenta para el rango, pues es linealmente dependiente. Por lo tanto, si nos olvidamos de la columna 
nula, queda una sola columna linealmente independiente  rg(B) = 1. 
Este resultado también puede obtenerse con método trucho: 
 
 
𝟏 𝟎
𝟒 𝟎
−𝟏 𝟎
 
𝐅′𝟐=𝐅𝟐−𝟒.𝐅𝟏
 
𝟏 𝟎
𝟎 𝟎
−𝟏 𝟎
 
𝐅′𝟑=𝐅𝟑+𝐅𝟏
 
𝟏 𝟎
𝟎 𝟎
𝟎 𝟎
 
Después de triangular y escalonar la matriz, se anularon dos filas y quedó solamente una sin anularse  
rg(B) = 1. 
 
𝐂 = 
𝟏 𝟎 𝟏 𝟏
𝟒 𝟑 𝟏 −𝟏
𝟐 𝟑 −𝟏 −𝟑
 . En esta matriz, no se ven filas o columnas nulas, ni filas múltiplos entre sí, ni 
columnas múltiplos entre sí, entonces nos conviene usar el método trucho: 
 
 
𝟏 𝟎 𝟏 𝟏
𝟒 𝟑 𝟏 −𝟏
𝟐 𝟑 −𝟏 −𝟑
 
𝐅′𝟐=𝐅𝟐−𝟒.𝐅𝟏
 
𝟏 𝟎 𝟏 𝟏
𝟎 𝟑 −𝟑 −𝟓
𝟐 𝟑 −𝟏 −𝟑
 
𝐅′𝟑=𝐅𝟑−𝟐.𝐅𝟏
 
𝟏 𝟎 𝟏 𝟏
𝟎 𝟑 −𝟑 −𝟓
𝟎 𝟑 −𝟑 −𝟓
 
𝐅′𝟑=𝐅𝟑−𝐅𝟐
 
𝟏 𝟎 𝟏 𝟏
𝟎 𝟑 −𝟑 −𝟓
𝟎 𝟎 𝟎 𝟎
 
 
Después de triangular y escalonar la matriz, se anuló una fila y quedaron dos filas sin anularse  rg(C) = 2. 
 
Teorema de Rouché-Frobenius (ej. 5 de la guía 4) 
Este teorema nos permite decidir cuántas soluciones tiene un sistema de ecuaciones lineales, en base al 
concepto de rango de una matriz. Nosotros ya vimos cómo decidir si un sistema tiene infinitas soluciones, 
solución única o ninguna solución triangulando y escalonando la matriz ampliada, y observando cómo son 
las filas que quedan. El teorema de Rouché-Frobenius es la justificación teórica de ese estudio que 
aprendimos a hacer en la clase 9. 
 
Teorema: sea A.X = B un sistema de ecuaciones lineales, y sea A’ la matriz ampliada del sistema. 
 
 el sistema A.X = B es compatible  rg(A’) = rg(A)  la columna de términos independientes B es 
combinación lineal de las columnas de la matriz de coeficientes A 
 el sistema A.X = B es incompatible  rg(A’)  rg(A) 
 (la opción rg(A’)  rg(A) no puede darse nunca pues A’ tiene una columna más que A, entonces su 
rango columna no puede ser menor que el rango columna de A) 
 
Resultado adicional: supongamos que el sistema A.X = B es compatible (es decir, se cumple rg(A) = rg(A’)) 
 Si la cantidad de incógnitas coincide con rg(A), entonces el sistema tiene solución única. 
 Si la cantidad de incógnitas es mayor al rg(A), entonces el sistema tiene infinitas soluciones, y la 
cantidad de variables libres será igual a: cantidad de incógnitas – rg(A) 
 
En resumen: 
 
 
 
Ejemplo: analizar la cantidad de soluciones del sistema 
𝟐𝐱+ 𝐲 − 𝐳 = 𝟏
𝐱 − 𝐳 = 𝟎
𝐱 − 𝐲 − 𝟐𝐳 = −𝟏
 
Resolución: 
Calculemos el rango de A y de A’. Para ello, triangulamos y escalonamos A’: 
 
 
𝟐 𝟏 −𝟏 ⋮ 𝟏
𝟏 𝟎 −𝟏 ⋮ 𝟎
𝟏 −𝟏 −𝟐 ⋮ −𝟏
 
𝐅′ 𝟐=𝟐.𝐅𝟐−𝐅𝟏
 
𝟐 𝟏 −𝟏 ⋮ 𝟏
𝟎 −𝟏 −𝟏 ⋮ −𝟏
𝟏 −𝟏 −𝟐 ⋮ −𝟏
 
𝐅′ 𝟑=𝟐.𝐅𝟑−𝐅𝟏
 
𝟐 𝟏 −𝟏 ⋮ 𝟏
𝟎 −𝟏 −𝟏 ⋮ −𝟏
𝟎 −𝟑 −𝟑 ⋮ −𝟑
 
 
𝐅′𝟑=𝐅𝟑−𝟑.𝐅𝟐
 
𝟐 𝟏 −𝟏 ⋮ 𝟏
𝟎 −𝟏 −𝟏 ⋮ −𝟏
𝟎 𝟎 𝟎 ⋮ 𝟎
 
 
𝐫𝐠 𝐀′ = 𝐫𝐠 
𝟐 𝟏 −𝟏 ⋮ 𝟏
𝟎 −𝟏 −𝟏 ⋮ −𝟏
𝟎 𝟎 𝟎 ⋮ 𝟎
 = 𝟐 ; 𝐫𝐠 𝐀 = 𝐫𝐠 
𝟐 𝟏 −𝟏
𝟎 −𝟏 −𝟏
𝟎 𝟎 𝟎
 = 𝟐 
 
 rg(A’) = rg(A)  el sistema es compatible. 
 rg(A) = rg(A’) = 2, cantidad de incógnitas = 3. 3 > 2  el sistema tiene infinitas soluciones 
 
En este sistema, la cantidad de variables libres es 3 – 2 = 1. Eso significa que, al resolverlo, se pueden despejar 
dos incógnitas en función de una sola, que será justamente la variable libre (tomará todos los valores reales 
libremente). 
 
Definiciones adicionales (para ej.6, 7-b, 8-b y 8-c) 
 
1) Cuando estudiamos el tema de subespacios, dijimos que todo subespacio puede expresarse con 
ecuaciones lineales homogéneas. Esto nos dice que las soluciones de un sistema homogéneo de 
Sistema A.X=B
Compatible: 
rg(A´) = rg(A)
cantidad de 
incógnitas = rg(A)
S.C.D
cantidad de 
incógnitas  rg(A)
S.C.I.
Incompatible: 
rg(A')  rg(A)
S.I
ecuaciones lineales A.X = 0 (ojo: en la guía lo escriben como A.X = N) forman un subespacio. A ese 
subespacio también se lo denomina subespacio solución del sistema (o espacio solución del 
sistema), y como es un subespacio, podemos hallarle base y dimensión. 
 
Por ejemplo, para el sistema 
𝟐𝐱 + 𝐲 − 𝐳 = 𝟎
𝟑𝐲+ 𝐳 = 𝟎
 , el subespacio solución está formado por las infinitas 
soluciones del sistema. Dichas soluciones son de la forma (x ; y ; z) = (-2y , y ; -3y) con y  , y las 
podemos reescribir como: (x ; y ; z) = y.(-2 , 1 ; -3) con y   (aquí y es la variable libre) 
Entonces, el subespacio solución tiene como vector generador el (-2 ; 1 ; -3). Por lo tanto, podemos 
expresar al conjunto solución como subespacio generado por un vector: 
 
Solución = gen{ (-2 ; 1 ;-3) } 
 
Propiedad útil: la dimensión del espacio solución coincide con la cantidad de variables libres del sistema. 
Pero cuidado: para hallar bien la cantidad de variables libres de un sistema, primero hay que calcular bien el 
rango de la matriz de coeficientes del sistema, y saber cuántas incógnitas tiene el sistema, ya que cantidad de 
variables libres = cantidad de incógnitas – rg(A) 
 
2) El subespacio generado por las columnas de la matriz de coeficientes A se denomina subespacio 
columna de la matriz A, y su dimensión es el rango (columna) de A. 
3) El subespacio generado por las filas de la matriz de coeficientes A se denomina subespacio fila de la 
matriz A, y su dimensiónes el rango (fila) de A. 
 
En el ejemplo que escribí antes, tendremos: 
 
 𝐒𝐮𝐛𝐞𝐬𝐩𝐚𝐜𝐢𝐨 𝐟𝐢𝐥𝐚 = 𝐠𝐞𝐧{ 𝟐 ; 𝟏 ; −𝟏 ; (𝟎 ;𝟑 ;𝟏) } y tiene dimensión = rg(A) = 2 
 𝐒𝐮𝐛𝐞𝐬𝐩𝐚𝐜𝐢𝐨 𝐜𝐨𝐥𝐮𝐦𝐧𝐚 = 𝐠𝐞𝐧 
𝟐
𝟎
 ; 
𝟏
𝟑
 ; 
−𝟏
𝟏
 y tiene dimensión = rg(A) = 2 
 
 
 
Propiedades de las soluciones de un sistema de ecuaciones lineales (para ej. 9, 10 y 11) 
 
Sea A.X = B un sistema de ecuaciones lineales. Si cambiamos la columna de términos independientes por 
una columna nula, obtendremos un nuevo sistema A.X = 0, que tiene la misma matriz de coeficientes que 
el sistema original. Este nuevo sistema A.X = 0 se llama sistema homogéneo asociado al sistema A.X = B. 
Como los dos sistemas están asociados entre sí, sus soluciones también están asociadas. Vamos a verlo con 
un ejemplo sencillo. 
Resolvamos el sistema 
𝟐𝐱+ 𝐲 = 𝟏
𝐲 − 𝐳 = 𝟐
𝟐𝐲 − 𝟐𝐳 = 𝟒
 
 
 
𝟐 𝟏 𝟎 ⋮ 𝟏
𝟎 𝟏 −𝟏 ⋮ 𝟐
𝟎 𝟐 −𝟐 ⋮ 𝟒
 → 
𝟐 𝟏 𝟎 ⋮ 𝟏
𝟎 𝟏 −𝟏 ⋮ 𝟐
𝟎 𝟎 𝟎 ⋮ 𝟎
  𝐫𝐠 𝐀 = 𝟐 ; 𝐧ú𝐦𝐞𝐫𝐨 𝐝𝐞 𝐢𝐧𝐜ó𝐠𝐧𝐢𝐭𝐚𝐬 = 𝟑 ; 𝟑 > 2  𝐒𝐂𝐈 
 
De la segunda ecuación tenemos 𝐲 = 𝟐 + 𝐳 con z   (z será la variable libre), y reemplazando esto en la 
primera, nos queda 𝐱 = −
𝟏
𝟐
 –
𝐳
𝟐
 
Todas las soluciones del sistema son de la forma (𝐱 ; 𝐲 ; 𝐳) = −
𝟏
𝟐
−
𝟏
𝟐
. 𝐳 ; 𝟐 + 𝐳 ; 𝐳 𝐜𝐨𝐧 𝐳   . Esto no 
es un subespacio, pues el sistema que resolvimos no es homogéneo. Para ver qué objeto geométrico es, 
reescribimos la solución: 
 
 𝐱 ; 𝐲 ; 𝐳 = −
𝟏
𝟐
−
𝟏
𝟐
. 𝐳 ; 𝟐 + 𝐳 ; 𝐳 = −
𝟏
𝟐
 ; 𝟐 ; 𝟎 + 𝐳. (−
𝟏
𝟐
 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳   
 
y vemos que corresponde a una recta que no pasa por el origen. 
 
Resolvamos ahora el sistema homogéneo asociado: 
𝟐𝐱+ 𝐲 = 𝟎
𝐲 − 𝐳 = 𝟎
𝟐𝐲 − 𝟐𝐳 = 𝟎
 
 
 
𝟐 𝟏 𝟎 ⋮ 𝟎
𝟎 𝟏 −𝟏 ⋮ 𝟎
𝟎 𝟐 −𝟐 ⋮ 𝟎
 → 
𝟐 𝟏 𝟎 ⋮ 𝟎
𝟎 𝟏 −𝟏 ⋮ 𝟎
𝟎 𝟎 𝟎 ⋮ 𝟎
  𝐫𝐠 𝐀 = 𝟐 ; 𝐧ú𝐦𝐞𝐫𝐨 𝐝𝐞 𝐢𝐧𝐜ó𝐠𝐧𝐢𝐭𝐚𝐬 = 𝟑 ; 𝟑 > 2  𝐒𝐂𝐈 
 
De la segunda ecuación tenemos 𝐲 = 𝐳 con z   (z será la variable libre), y reemplazando esto en la 
primera, nos queda 𝐱 = –
𝐳
𝟐
 
Todas las soluciones del sistema son de la forma 𝐱 ; 𝐲 ; 𝐳 = −
𝐳
𝟐
 ; 𝐳 ; 𝐳 𝐜𝐨𝐧 𝐳   . Ahora esto sí es un 
subespacio. Al igual que antes, para ver qué objeto geométrico es, reescribimos la solución: 
 
 𝐱 ; 𝐲 ; 𝐳 = −
𝐳
𝟐
 ; 𝐳 ; 𝐳 = 𝐳. (−
𝟏
𝟐
 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳   
 
y vemos que corresponde a una recta que pasa por el origen. Pero comparemos las soluciones de ambos 
sistemas: 
 
Soluciones de A.X = 0: 𝐱 ; 𝐲 ; 𝐳 = − 
𝐳
𝟐
 ; 𝐳 ; 𝐳 = 𝐳. (−
𝟏
𝟐
 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳   
 
Soluciones de A.X = B: 𝐱 ; 𝐲 ; 𝐳 = −
𝟏
𝟐
−
𝐳
𝟐
 ;𝟐+ 𝐳 ; 𝐳 = −
𝟏
𝟐
 ; 𝟐 ; 𝟎 + 𝐳. (−
𝟏
𝟐
 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳   
 
Noten que todas las soluciones del no homogéneo A.X = B, se expresan como todas las soluciones del 
sistema homogéneo (en rojo) más una solución del sistema A.X = B (la que está en celeste: ustedes pueden 
ver que efectivamente verifica las tres ecuaciones del sistema no homogéneo). Esta solución de A.X = B se 
denomina solución particular. Y esta es la relación entre las soluciones de ambos sistemas. 
 
Propiedad: El conjunto de todas las soluciones de un sistema A.X = B siempre puede expresarse como una 
combinación lineal de una solución particular de A.X = B y todas las soluciones de A.X = 0 (es la solución 
particular de A.X = B más todas las soluciones de A.X = 0) 
 
 
Más propiedades 
Las propiedades que veremos ahora sirven para construir soluciones de un sistema cuando, en lugar de 
conocer las ecuaciones, conocemos algunas pocas soluciones del sistema. 
 
1) Si X1 es una solución de A.X = 0 y X2 es otra solución de A.X = 0, entonces: 
 
a) (X1 + X2) es una nueva solución de A.X = 0 
b) (X1 – X2) es una nueva solución de A.X = 0 
c) para cualquier k real, k.X1 es una nueva solución de A.X = 0 
 
Veamos, por única vez, cómo se demuestra alguna de estas propiedades, por ejemplo, la del inciso a) 
 
Sabemos que X1 es una solución del sistema A.X = 0, entonces debe verificar A.X1 = 0 
Sabemos también que X2 es otra solución del sistema A.X = 0, entonces debe verificar A.X2 = 0 
Lo que está remarcado con rojo son nuestras hipótesis, y las podemos usar en el desarrollo de la 
demostración. 
Mostremos que la suma de dichas soluciones es una nueva solución del mismo sistema homogéneo. Para 
ello, calculemos cuánto da A.(X1 + X2): 
 
A.(X1 + X2) = A.X1 + A.X2 = 0 + 0 = 0  A.(X1 + X2) = 0 
 (X1 + X2) verifica las ecuaciones del sistema homogéneo 
 (X1 + X2) es una nueva solución del sistema homogéneo. 
 
Observación: demostrando los incisos a y c, estamos demostrando que las soluciones de un sistema 
homogéneo forman un subespacio. Por eso, cuando un conjunto está caracterizado por ecuaciones lineales 
y homogéneas, ya sabemos que es un subespacio, y no hace falta demostrar que cumple las tres condiciones 
necesarias y suficientes de subespacio. 
 
2) Si X3 es una solución de A.X = B y X4 es una solución de A.X = 0, entonces: 
(X3 + X4) es una nueva solución de A.X = B 
 
3) Si X5 es una solución de A.X = B y X6 es una solución de A.X = B, entonces: 
(X5 – X6) es una solución de A.X = 0 
 
 
Ejemplo de aplicación de estas propiedades (como el ej. 10) 
Sea el sistema 𝐀.𝐗 = 
𝟏
𝟏
𝟐
 de tres ecuaciones con tres incógnitas, del cual 𝐗𝟏 = 
𝟏
−𝟏
𝟑
 y 𝐗𝟐 = 
𝟏
𝟎
𝟓
 son 
soluciones. Construir tres soluciones más del sistema. 
Resolución: la propiedad 2 nos dice que las soluciones de un sistema no homogéneo siempre se pueden 
construir sumando una solución del sistema no homogéneo con una solución del homogéneo 
asociado. Entonces, si logramos obtener tres soluciones del sistema homogéneo asociado, 
podremos construir las soluciones del no homogéneo. 
La propiedad 3 nos dice cómo construir una solución del homogéneo asociado si conocemos 
dos soluciones del no homogéneo: restándolas entre sí (en cualquier orden) 
Entonces, una solución de A.X = 0 será 
𝟏
−𝟏
𝟑
 − 
𝟏
𝟎
𝟓
 = 
𝟎
−𝟏
−𝟐
 
y otra solución de A.X = 0 será 
𝟏
𝟎
𝟓
 − 
𝟏
−𝟏
𝟑
 = 
𝟎
𝟏
𝟐
 
Necesitamos construir una solución más del homogéneo, distinta a las dos que ya 
construimos. Podemos ayudarnos con la propiedad 1: por ejemplo, a cualquiera de las 
soluciones construidas, las podemos multiplicar por cualquier número, y obtendremos otra 
solución más. Puede ser 𝟑. 
𝟎
𝟏
𝟐
 = 
𝟎
𝟑
𝟔
 , o 𝟒. 
𝟎
𝟏
𝟐
 = 
𝟎
𝟒
𝟖
 o cualquier otro múltiplo. 
Listo: con las soluciones del sistema homogéneo asociado, ya podemos construir tres 
soluciones del sistema del enunciado: 
𝐗𝟑 = 
𝟏
𝟎
𝟓
 + 
𝟎
𝟏
𝟐
 = 
𝟏
𝟏
𝟕
 ; 𝐗𝟒 = 
𝟏
𝟎
𝟓
 + 
𝟎
𝟑
𝟔
 = 
𝟏
𝟑
𝟏𝟏
 ; 𝐗𝟓 = 
𝟏
𝟎
𝟓
 + 
𝟎
𝟒
𝟖
 = 
𝟏
𝟒
𝟏𝟑
 
 
 
Resolución de sistemas simultáneos 
Cuando tenemos que resolver varios sistemas que tienen la misma matriz de coeficientes, no hace falta 
hacer una triangulación para cada sistema por separado, podemos triangular todos los sistemas juntos 
acomodándolos en forma conveniente. Veámoslo con un ejemplo. 
Supongamos que queremos resolver dos sistemas: 
 
 
𝟐𝐱 + 𝐲 = 𝟖
𝐱 − 𝐲 = 𝟒
 y 
𝟐𝐱+ 𝐲 = 𝟕
𝐱 − 𝐲 = 𝟔
 
Como los dos tienen la misma matriz de coeficientes, el método de Gauss llevará los mismos pasos de 
triangulación para ambos. Entonces usamos una sola matriz de coeficientes, con dos columnas de términos 
independientes, que es lo que tienen de distinto estos sistemas: 
 
 
𝟐 𝟏 ⋮ 𝟖 𝟕
𝟏 −𝟏 ⋮ 𝟒 𝟔
 
𝑭′𝟐=𝟐.𝑭𝟐−𝑭𝟏
 
𝟐 𝟏 ⋮ 𝟖 𝟕
𝟎 −𝟑 ⋮ 𝟎 𝟓
 
 
Las soluciones de cada sistema salen despejando de 
 
𝟐𝐱 + 𝐲 = 𝟖
−𝟑𝐲 = 𝟎
 y 
𝟐𝐱+ 𝐲 = 𝟕
−𝟑𝐲 = 𝟓
 
 
Para el primer sistema la solución es (4 ; 0) y para el segundo la solución es (13/3 ; -5/3) 
 
Cálculo de la matriz inversacon Gauss-Jordan, triangulando el sistema por abajo y por 
arriba de la diagonal. 
Este es, quizás, el cálculo en donde más se usa la resolución de sistemas simultáneos. Para calcular la inversa 
de una matriz de tamaño 2x2, debemos resolver un sistema de cuatro ecuaciones con cuatro incógnitas, 
que podemos llegar a resolver sin triangular matrices ampliadas. El asunto se complica cuando queremos 
calcular la inversa de una matriz de tamaño 3x3, porque debemos resolver un sistema de nueve ecuaciones 
con nueve incógnitas. Pero los sistemas que nos quedan planteados cuando buscamos la matriz inversa 
tienen una particularidad: se pueden separar en sistema más pequeños con la misma matriz de coeficientes 
(se los suele llamar “sistemas desacoplados”). Veamos un ejemplo, y una manera mecánica de llegar a la 
matriz inversa: 
Calcular la matriz inversa de 𝐀 = 
𝟏 𝟎 𝟏
𝟐 −𝟏 𝟏
𝟑 𝟒 𝟑
 
Sabemos que la matriz inversa será de la forma 𝐀−𝟏 = 
𝐚 𝐛 𝐜
𝐝 𝐞 𝐟
𝐠 𝐡 𝐢
 
y, de acuerdo a la definición de matriz inversa, debe cumplir las siguientes ecuaciones matriciales: 
𝐀.𝐀−𝟏 = 𝐈𝐝 ; 𝐀−𝟏.𝐀 = 𝐈𝐝 
Desarrollemos la primera: 
𝐀.𝐀−𝟏 = 
𝟏 𝟎 𝟏
𝟐 −𝟏 𝟏
𝟑 𝟒 𝟑
 . 
𝐚 𝐛 𝐜
𝐝 𝐞 𝐟
𝐠 𝐡 𝐢
 = 
𝟏 𝟎 𝟎
𝟎 𝟏 𝟎
𝟎 𝟎 𝟏
  
 
 
𝐚+ 𝐠 𝐛+ 𝐡 𝐜+ 𝐢
𝟐𝐚 − 𝐝+ 𝐠 𝟐𝐛 − 𝐞 + 𝐡 𝟐𝐜 − 𝐟+ 𝐢
𝟑𝐚+ 𝟒𝐝+ 𝟑𝐠 𝟑𝐛+ 𝟒𝐞+ 𝟑𝐡 𝟑𝐜+ 𝟒𝐟+ 𝟑𝐢
 = 
𝟏 𝟎 𝟎
𝟎 𝟏 𝟎
𝟎 𝟎 𝟏
 
 
Al igualar coeficiente a coeficiente, nos quedan nueve ecuaciones con nueve incógnitas, pero las incógnitas 
se distribuyen de manera especial: hay tres ecuaciones con solamente tres incógnitas, otras tres ecuaciones 
con otras tres incógnitas solamente, y las tres ecuaciones restantes contienen las tres incógnitas restantes, 
entonces el sistema se separa en tres minisistemas, cada unos de tres ecuaciones con tres incógnitas. Y todos 
tienen la misma matriz de coeficientes, entonces podemos resolverlos como sistemas simultáneos. Y 
observen quién es la matriz de coeficientes... 
 
 
𝐚+ 𝐠 = 𝟏
𝟐𝐚 − 𝐝+ 𝐠 = 𝟎
𝟑𝐚+ 𝟒𝐝+ 𝟑𝐠 = 𝟎
 ; 
𝐛+ 𝐡 = 𝟎
𝟐𝐛 − 𝐞+ 𝐡 = 𝟏
𝟑𝐛+ 𝟒𝐞+ 𝟑𝐡 = 𝟎
 ; 
𝐜 + 𝐢 = 𝟎
𝟐𝐜 − 𝐟+ 𝐢 = 𝟎
𝟑𝐜+ 𝟒𝐟+ 𝟑𝐢 = 𝟏
 
 
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟐 −𝟏 𝟏 ⋮ 𝟎 𝟏 𝟎
𝟑 𝟒 𝟑 ⋮ 𝟎 𝟎 𝟏
 
𝑭′ 𝟐=𝑭𝟐−𝟐.𝑭𝟏
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎
𝟑 𝟒 𝟑 ⋮ 𝟎 𝟎 𝟏
 
𝑭′ 𝟑=𝑭𝟑−𝟑.𝑭𝟏
 
 
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎
𝟎 𝟒 𝟎 ⋮ −𝟑 𝟎 𝟏
 
𝑭′𝟑=𝑭𝟑+𝟒.𝑭𝟐
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎
𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏
 
 
Con esto, ya podríamos despejar los coeficientes que forman la inversa, pero para que el despeje sea 
automático, vamos a seguir triangulando “para arriba”: trataremos de poner ceros en la matriz de 
coeficientes por arriba de la diagonal, empezando a ubicar los ceros de la tercer columna arriba del -4, que 
será el nuevo pivote, luego los que necesitamos en la segunda columna: 
 
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎
𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏
 
𝑭′ 𝟐=𝟒.𝑭𝟐−𝑭𝟑
 
𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎
𝟎 −𝟒 𝟎 ⋮ 𝟑 𝟎 −𝟏
𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏
 
𝑭′ 𝟏=𝟒.𝑭𝟏+𝑭𝟑
 
 
 
𝟒 𝟎 𝟎 ⋮ −𝟕 𝟒 𝟏
𝟎 −𝟒 𝟎 ⋮ 𝟑 𝟎 −𝟏
𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏
 → 
𝟏 𝟎 𝟎 ⋮ −𝟕/𝟒 𝟏 𝟏/𝟒
𝟎 𝟏 𝟎 ⋮ −𝟑/𝟒 𝟎 𝟏/𝟒
𝟎 𝟎 𝟏 ⋮ 𝟏𝟏/𝟒 −𝟏 −𝟏/𝟒
 
 
En el último paso, dividimos la fila 1 por 4, la fila 2 por -4 y la fila 3 por -4. Y del lado de la matriz de 
coeficientes nos quedó la identidad. Ahora, el despeje de los coeficientes de la matriz inversa es directo: 
 
 
𝐚 = −𝟕/𝟒
𝐝 = −𝟑/𝟒
𝐠 = 𝟏𝟏/𝟒
 ; 
𝐛 = 𝟏
𝐞 = 𝟎
𝐡 = −𝟏
 ; 
𝐜 = 𝟏/𝟒
𝐟 = 𝟏/𝟒
𝐢 = −𝟏/𝟒
 
 
Conclusión: 𝐀−𝟏 = 
−𝟕/𝟒 𝟏 𝟏/𝟒
−𝟑/𝟒 𝟎 𝟏/𝟒
𝟏𝟏/𝟒 −𝟏 −𝟏/𝟒
 . Del lado de la matriz de coeficientes ponemos la matriz A y del 
otro lado Id, aplicamos Gauss-Jordan hasta que del lado de los coeficientes aparece Id, entonces lo que 
queda a la derecha será directamente A-1. 
 
Con esto terminamos todos los temas de las guías 1, 2, 3 y 4, o sea, todo lo que entra en el primer parcial.

Más contenidos de este tema