Vista previa del material en texto
Álgebra y Geometría Analítica, año 2023 Clase 13: sistemas de ecuaciones lineales y el teorema de Rouché-Frobenius En esta clase veremos algunos detalles teóricos sobre sistemas de ecuaciones lineales. En ese sentido, la unidad 4, cuyos contenidos entran todos en esta clase, es una continuación de la unidad 2. Pero si no estudian a fondo esta clase, los ejercicios de sistemas de ecuaciones lineales los pueden resolver sin inconvenientes con lo visto en la clase 9. Sólo hay que recordar un par de definiciones nuevas que veremos aquí, y cómo se relacionan con lo visto antes. Recuerden que algunos ejercicios de la guía 4 se pueden hacer con los contenidos de la clase 9: los ejercicios 3-b, 4, 7-a, 8-a, 9-a. Y el ejercicio 2, que es de cálculo de inversa de una matriz, también se puede hacer sin leer esta clase. Rango de una matriz (ej. 1 y 3 de la guía 4) Definiciones: sea A una matriz de cualquier tamaño (no hace falta que sea cuadrada) Llamamos rango fila de A a la cantidad de filas linealmente independientes que tiene la matriz A Llamamos rango columna de A a la cantidad de columnas linealmente independientes que tiene la matriz A Se puede demostrar (no lo haremos aquí) que para toda matriz, su rango fila coincide con su rango columna. Entonces, cuando hablamos de rango, no es necesario distinguir si se trata de rango fila o de rango columna. Llamaremos rango de A, y lo notaremos como rg(A), a la cantidad de filas (o de columnas) linealmente independientes que tiene la matriz A. Para calcular el rango de una matriz, podemos ayudarnos con nuestro método “trucho”, en el cual aplicamos las operaciones de Gauss-Jordan (pero recuerden que esto no proviene de plantear ningún sistema, es sólo un método práctico): escribimos la matriz y la llevamos a la forma triangulada y escalonada. La cantidad de filas que quedan sin anularse corresponderá al rango (fila) de la matriz. También podemos hacerlo con la matriz transpuesta, ya que rango fila y rango columna siempre coinciden. Pero en algunos casos simples, el rango sale a simple vista. Ejemplo: calcular el rango de 𝐀 = 𝟏 𝟏 −𝟏 𝟗 ;𝐁 = 𝟏 𝟎 𝟒 𝟎 −𝟏 𝟎 ; 𝐂 = 𝟏 𝟎 𝟏 𝟏 𝟒 𝟑 𝟏 −𝟏 𝟐 𝟑 −𝟏 −𝟑 𝐀 = 𝟏 𝟏 −𝟏 𝟗 es una matriz que solamente tiene dos filas. Como las dos filas no son múltiplos entre sí, son linealmente independientes rg(A) = 2 𝐁 = 𝟏 𝟎 𝟒 𝟎 −𝟏 𝟎 es una matriz que solamente tiene tres filas y dos columnas. Como una columna es nula, esa no cuenta para el rango, pues es linealmente dependiente. Por lo tanto, si nos olvidamos de la columna nula, queda una sola columna linealmente independiente rg(B) = 1. Este resultado también puede obtenerse con método trucho: 𝟏 𝟎 𝟒 𝟎 −𝟏 𝟎 𝐅′𝟐=𝐅𝟐−𝟒.𝐅𝟏 𝟏 𝟎 𝟎 𝟎 −𝟏 𝟎 𝐅′𝟑=𝐅𝟑+𝐅𝟏 𝟏 𝟎 𝟎 𝟎 𝟎 𝟎 Después de triangular y escalonar la matriz, se anularon dos filas y quedó solamente una sin anularse rg(B) = 1. 𝐂 = 𝟏 𝟎 𝟏 𝟏 𝟒 𝟑 𝟏 −𝟏 𝟐 𝟑 −𝟏 −𝟑 . En esta matriz, no se ven filas o columnas nulas, ni filas múltiplos entre sí, ni columnas múltiplos entre sí, entonces nos conviene usar el método trucho: 𝟏 𝟎 𝟏 𝟏 𝟒 𝟑 𝟏 −𝟏 𝟐 𝟑 −𝟏 −𝟑 𝐅′𝟐=𝐅𝟐−𝟒.𝐅𝟏 𝟏 𝟎 𝟏 𝟏 𝟎 𝟑 −𝟑 −𝟓 𝟐 𝟑 −𝟏 −𝟑 𝐅′𝟑=𝐅𝟑−𝟐.𝐅𝟏 𝟏 𝟎 𝟏 𝟏 𝟎 𝟑 −𝟑 −𝟓 𝟎 𝟑 −𝟑 −𝟓 𝐅′𝟑=𝐅𝟑−𝐅𝟐 𝟏 𝟎 𝟏 𝟏 𝟎 𝟑 −𝟑 −𝟓 𝟎 𝟎 𝟎 𝟎 Después de triangular y escalonar la matriz, se anuló una fila y quedaron dos filas sin anularse rg(C) = 2. Teorema de Rouché-Frobenius (ej. 5 de la guía 4) Este teorema nos permite decidir cuántas soluciones tiene un sistema de ecuaciones lineales, en base al concepto de rango de una matriz. Nosotros ya vimos cómo decidir si un sistema tiene infinitas soluciones, solución única o ninguna solución triangulando y escalonando la matriz ampliada, y observando cómo son las filas que quedan. El teorema de Rouché-Frobenius es la justificación teórica de ese estudio que aprendimos a hacer en la clase 9. Teorema: sea A.X = B un sistema de ecuaciones lineales, y sea A’ la matriz ampliada del sistema. el sistema A.X = B es compatible rg(A’) = rg(A) la columna de términos independientes B es combinación lineal de las columnas de la matriz de coeficientes A el sistema A.X = B es incompatible rg(A’) rg(A) (la opción rg(A’) rg(A) no puede darse nunca pues A’ tiene una columna más que A, entonces su rango columna no puede ser menor que el rango columna de A) Resultado adicional: supongamos que el sistema A.X = B es compatible (es decir, se cumple rg(A) = rg(A’)) Si la cantidad de incógnitas coincide con rg(A), entonces el sistema tiene solución única. Si la cantidad de incógnitas es mayor al rg(A), entonces el sistema tiene infinitas soluciones, y la cantidad de variables libres será igual a: cantidad de incógnitas – rg(A) En resumen: Ejemplo: analizar la cantidad de soluciones del sistema 𝟐𝐱+ 𝐲 − 𝐳 = 𝟏 𝐱 − 𝐳 = 𝟎 𝐱 − 𝐲 − 𝟐𝐳 = −𝟏 Resolución: Calculemos el rango de A y de A’. Para ello, triangulamos y escalonamos A’: 𝟐 𝟏 −𝟏 ⋮ 𝟏 𝟏 𝟎 −𝟏 ⋮ 𝟎 𝟏 −𝟏 −𝟐 ⋮ −𝟏 𝐅′ 𝟐=𝟐.𝐅𝟐−𝐅𝟏 𝟐 𝟏 −𝟏 ⋮ 𝟏 𝟎 −𝟏 −𝟏 ⋮ −𝟏 𝟏 −𝟏 −𝟐 ⋮ −𝟏 𝐅′ 𝟑=𝟐.𝐅𝟑−𝐅𝟏 𝟐 𝟏 −𝟏 ⋮ 𝟏 𝟎 −𝟏 −𝟏 ⋮ −𝟏 𝟎 −𝟑 −𝟑 ⋮ −𝟑 𝐅′𝟑=𝐅𝟑−𝟑.𝐅𝟐 𝟐 𝟏 −𝟏 ⋮ 𝟏 𝟎 −𝟏 −𝟏 ⋮ −𝟏 𝟎 𝟎 𝟎 ⋮ 𝟎 𝐫𝐠 𝐀′ = 𝐫𝐠 𝟐 𝟏 −𝟏 ⋮ 𝟏 𝟎 −𝟏 −𝟏 ⋮ −𝟏 𝟎 𝟎 𝟎 ⋮ 𝟎 = 𝟐 ; 𝐫𝐠 𝐀 = 𝐫𝐠 𝟐 𝟏 −𝟏 𝟎 −𝟏 −𝟏 𝟎 𝟎 𝟎 = 𝟐 rg(A’) = rg(A) el sistema es compatible. rg(A) = rg(A’) = 2, cantidad de incógnitas = 3. 3 > 2 el sistema tiene infinitas soluciones En este sistema, la cantidad de variables libres es 3 – 2 = 1. Eso significa que, al resolverlo, se pueden despejar dos incógnitas en función de una sola, que será justamente la variable libre (tomará todos los valores reales libremente). Definiciones adicionales (para ej.6, 7-b, 8-b y 8-c) 1) Cuando estudiamos el tema de subespacios, dijimos que todo subespacio puede expresarse con ecuaciones lineales homogéneas. Esto nos dice que las soluciones de un sistema homogéneo de Sistema A.X=B Compatible: rg(A´) = rg(A) cantidad de incógnitas = rg(A) S.C.D cantidad de incógnitas rg(A) S.C.I. Incompatible: rg(A') rg(A) S.I ecuaciones lineales A.X = 0 (ojo: en la guía lo escriben como A.X = N) forman un subespacio. A ese subespacio también se lo denomina subespacio solución del sistema (o espacio solución del sistema), y como es un subespacio, podemos hallarle base y dimensión. Por ejemplo, para el sistema 𝟐𝐱 + 𝐲 − 𝐳 = 𝟎 𝟑𝐲+ 𝐳 = 𝟎 , el subespacio solución está formado por las infinitas soluciones del sistema. Dichas soluciones son de la forma (x ; y ; z) = (-2y , y ; -3y) con y , y las podemos reescribir como: (x ; y ; z) = y.(-2 , 1 ; -3) con y (aquí y es la variable libre) Entonces, el subespacio solución tiene como vector generador el (-2 ; 1 ; -3). Por lo tanto, podemos expresar al conjunto solución como subespacio generado por un vector: Solución = gen{ (-2 ; 1 ;-3) } Propiedad útil: la dimensión del espacio solución coincide con la cantidad de variables libres del sistema. Pero cuidado: para hallar bien la cantidad de variables libres de un sistema, primero hay que calcular bien el rango de la matriz de coeficientes del sistema, y saber cuántas incógnitas tiene el sistema, ya que cantidad de variables libres = cantidad de incógnitas – rg(A) 2) El subespacio generado por las columnas de la matriz de coeficientes A se denomina subespacio columna de la matriz A, y su dimensión es el rango (columna) de A. 3) El subespacio generado por las filas de la matriz de coeficientes A se denomina subespacio fila de la matriz A, y su dimensiónes el rango (fila) de A. En el ejemplo que escribí antes, tendremos: 𝐒𝐮𝐛𝐞𝐬𝐩𝐚𝐜𝐢𝐨 𝐟𝐢𝐥𝐚 = 𝐠𝐞𝐧{ 𝟐 ; 𝟏 ; −𝟏 ; (𝟎 ;𝟑 ;𝟏) } y tiene dimensión = rg(A) = 2 𝐒𝐮𝐛𝐞𝐬𝐩𝐚𝐜𝐢𝐨 𝐜𝐨𝐥𝐮𝐦𝐧𝐚 = 𝐠𝐞𝐧 𝟐 𝟎 ; 𝟏 𝟑 ; −𝟏 𝟏 y tiene dimensión = rg(A) = 2 Propiedades de las soluciones de un sistema de ecuaciones lineales (para ej. 9, 10 y 11) Sea A.X = B un sistema de ecuaciones lineales. Si cambiamos la columna de términos independientes por una columna nula, obtendremos un nuevo sistema A.X = 0, que tiene la misma matriz de coeficientes que el sistema original. Este nuevo sistema A.X = 0 se llama sistema homogéneo asociado al sistema A.X = B. Como los dos sistemas están asociados entre sí, sus soluciones también están asociadas. Vamos a verlo con un ejemplo sencillo. Resolvamos el sistema 𝟐𝐱+ 𝐲 = 𝟏 𝐲 − 𝐳 = 𝟐 𝟐𝐲 − 𝟐𝐳 = 𝟒 𝟐 𝟏 𝟎 ⋮ 𝟏 𝟎 𝟏 −𝟏 ⋮ 𝟐 𝟎 𝟐 −𝟐 ⋮ 𝟒 → 𝟐 𝟏 𝟎 ⋮ 𝟏 𝟎 𝟏 −𝟏 ⋮ 𝟐 𝟎 𝟎 𝟎 ⋮ 𝟎 𝐫𝐠 𝐀 = 𝟐 ; 𝐧ú𝐦𝐞𝐫𝐨 𝐝𝐞 𝐢𝐧𝐜ó𝐠𝐧𝐢𝐭𝐚𝐬 = 𝟑 ; 𝟑 > 2 𝐒𝐂𝐈 De la segunda ecuación tenemos 𝐲 = 𝟐 + 𝐳 con z (z será la variable libre), y reemplazando esto en la primera, nos queda 𝐱 = − 𝟏 𝟐 – 𝐳 𝟐 Todas las soluciones del sistema son de la forma (𝐱 ; 𝐲 ; 𝐳) = − 𝟏 𝟐 − 𝟏 𝟐 . 𝐳 ; 𝟐 + 𝐳 ; 𝐳 𝐜𝐨𝐧 𝐳 . Esto no es un subespacio, pues el sistema que resolvimos no es homogéneo. Para ver qué objeto geométrico es, reescribimos la solución: 𝐱 ; 𝐲 ; 𝐳 = − 𝟏 𝟐 − 𝟏 𝟐 . 𝐳 ; 𝟐 + 𝐳 ; 𝐳 = − 𝟏 𝟐 ; 𝟐 ; 𝟎 + 𝐳. (− 𝟏 𝟐 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳 y vemos que corresponde a una recta que no pasa por el origen. Resolvamos ahora el sistema homogéneo asociado: 𝟐𝐱+ 𝐲 = 𝟎 𝐲 − 𝐳 = 𝟎 𝟐𝐲 − 𝟐𝐳 = 𝟎 𝟐 𝟏 𝟎 ⋮ 𝟎 𝟎 𝟏 −𝟏 ⋮ 𝟎 𝟎 𝟐 −𝟐 ⋮ 𝟎 → 𝟐 𝟏 𝟎 ⋮ 𝟎 𝟎 𝟏 −𝟏 ⋮ 𝟎 𝟎 𝟎 𝟎 ⋮ 𝟎 𝐫𝐠 𝐀 = 𝟐 ; 𝐧ú𝐦𝐞𝐫𝐨 𝐝𝐞 𝐢𝐧𝐜ó𝐠𝐧𝐢𝐭𝐚𝐬 = 𝟑 ; 𝟑 > 2 𝐒𝐂𝐈 De la segunda ecuación tenemos 𝐲 = 𝐳 con z (z será la variable libre), y reemplazando esto en la primera, nos queda 𝐱 = – 𝐳 𝟐 Todas las soluciones del sistema son de la forma 𝐱 ; 𝐲 ; 𝐳 = − 𝐳 𝟐 ; 𝐳 ; 𝐳 𝐜𝐨𝐧 𝐳 . Ahora esto sí es un subespacio. Al igual que antes, para ver qué objeto geométrico es, reescribimos la solución: 𝐱 ; 𝐲 ; 𝐳 = − 𝐳 𝟐 ; 𝐳 ; 𝐳 = 𝐳. (− 𝟏 𝟐 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳 y vemos que corresponde a una recta que pasa por el origen. Pero comparemos las soluciones de ambos sistemas: Soluciones de A.X = 0: 𝐱 ; 𝐲 ; 𝐳 = − 𝐳 𝟐 ; 𝐳 ; 𝐳 = 𝐳. (− 𝟏 𝟐 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳 Soluciones de A.X = B: 𝐱 ; 𝐲 ; 𝐳 = − 𝟏 𝟐 − 𝐳 𝟐 ;𝟐+ 𝐳 ; 𝐳 = − 𝟏 𝟐 ; 𝟐 ; 𝟎 + 𝐳. (− 𝟏 𝟐 ;𝟏 ;𝟏) 𝐜𝐨𝐧 𝐳 Noten que todas las soluciones del no homogéneo A.X = B, se expresan como todas las soluciones del sistema homogéneo (en rojo) más una solución del sistema A.X = B (la que está en celeste: ustedes pueden ver que efectivamente verifica las tres ecuaciones del sistema no homogéneo). Esta solución de A.X = B se denomina solución particular. Y esta es la relación entre las soluciones de ambos sistemas. Propiedad: El conjunto de todas las soluciones de un sistema A.X = B siempre puede expresarse como una combinación lineal de una solución particular de A.X = B y todas las soluciones de A.X = 0 (es la solución particular de A.X = B más todas las soluciones de A.X = 0) Más propiedades Las propiedades que veremos ahora sirven para construir soluciones de un sistema cuando, en lugar de conocer las ecuaciones, conocemos algunas pocas soluciones del sistema. 1) Si X1 es una solución de A.X = 0 y X2 es otra solución de A.X = 0, entonces: a) (X1 + X2) es una nueva solución de A.X = 0 b) (X1 – X2) es una nueva solución de A.X = 0 c) para cualquier k real, k.X1 es una nueva solución de A.X = 0 Veamos, por única vez, cómo se demuestra alguna de estas propiedades, por ejemplo, la del inciso a) Sabemos que X1 es una solución del sistema A.X = 0, entonces debe verificar A.X1 = 0 Sabemos también que X2 es otra solución del sistema A.X = 0, entonces debe verificar A.X2 = 0 Lo que está remarcado con rojo son nuestras hipótesis, y las podemos usar en el desarrollo de la demostración. Mostremos que la suma de dichas soluciones es una nueva solución del mismo sistema homogéneo. Para ello, calculemos cuánto da A.(X1 + X2): A.(X1 + X2) = A.X1 + A.X2 = 0 + 0 = 0 A.(X1 + X2) = 0 (X1 + X2) verifica las ecuaciones del sistema homogéneo (X1 + X2) es una nueva solución del sistema homogéneo. Observación: demostrando los incisos a y c, estamos demostrando que las soluciones de un sistema homogéneo forman un subespacio. Por eso, cuando un conjunto está caracterizado por ecuaciones lineales y homogéneas, ya sabemos que es un subespacio, y no hace falta demostrar que cumple las tres condiciones necesarias y suficientes de subespacio. 2) Si X3 es una solución de A.X = B y X4 es una solución de A.X = 0, entonces: (X3 + X4) es una nueva solución de A.X = B 3) Si X5 es una solución de A.X = B y X6 es una solución de A.X = B, entonces: (X5 – X6) es una solución de A.X = 0 Ejemplo de aplicación de estas propiedades (como el ej. 10) Sea el sistema 𝐀.𝐗 = 𝟏 𝟏 𝟐 de tres ecuaciones con tres incógnitas, del cual 𝐗𝟏 = 𝟏 −𝟏 𝟑 y 𝐗𝟐 = 𝟏 𝟎 𝟓 son soluciones. Construir tres soluciones más del sistema. Resolución: la propiedad 2 nos dice que las soluciones de un sistema no homogéneo siempre se pueden construir sumando una solución del sistema no homogéneo con una solución del homogéneo asociado. Entonces, si logramos obtener tres soluciones del sistema homogéneo asociado, podremos construir las soluciones del no homogéneo. La propiedad 3 nos dice cómo construir una solución del homogéneo asociado si conocemos dos soluciones del no homogéneo: restándolas entre sí (en cualquier orden) Entonces, una solución de A.X = 0 será 𝟏 −𝟏 𝟑 − 𝟏 𝟎 𝟓 = 𝟎 −𝟏 −𝟐 y otra solución de A.X = 0 será 𝟏 𝟎 𝟓 − 𝟏 −𝟏 𝟑 = 𝟎 𝟏 𝟐 Necesitamos construir una solución más del homogéneo, distinta a las dos que ya construimos. Podemos ayudarnos con la propiedad 1: por ejemplo, a cualquiera de las soluciones construidas, las podemos multiplicar por cualquier número, y obtendremos otra solución más. Puede ser 𝟑. 𝟎 𝟏 𝟐 = 𝟎 𝟑 𝟔 , o 𝟒. 𝟎 𝟏 𝟐 = 𝟎 𝟒 𝟖 o cualquier otro múltiplo. Listo: con las soluciones del sistema homogéneo asociado, ya podemos construir tres soluciones del sistema del enunciado: 𝐗𝟑 = 𝟏 𝟎 𝟓 + 𝟎 𝟏 𝟐 = 𝟏 𝟏 𝟕 ; 𝐗𝟒 = 𝟏 𝟎 𝟓 + 𝟎 𝟑 𝟔 = 𝟏 𝟑 𝟏𝟏 ; 𝐗𝟓 = 𝟏 𝟎 𝟓 + 𝟎 𝟒 𝟖 = 𝟏 𝟒 𝟏𝟑 Resolución de sistemas simultáneos Cuando tenemos que resolver varios sistemas que tienen la misma matriz de coeficientes, no hace falta hacer una triangulación para cada sistema por separado, podemos triangular todos los sistemas juntos acomodándolos en forma conveniente. Veámoslo con un ejemplo. Supongamos que queremos resolver dos sistemas: 𝟐𝐱 + 𝐲 = 𝟖 𝐱 − 𝐲 = 𝟒 y 𝟐𝐱+ 𝐲 = 𝟕 𝐱 − 𝐲 = 𝟔 Como los dos tienen la misma matriz de coeficientes, el método de Gauss llevará los mismos pasos de triangulación para ambos. Entonces usamos una sola matriz de coeficientes, con dos columnas de términos independientes, que es lo que tienen de distinto estos sistemas: 𝟐 𝟏 ⋮ 𝟖 𝟕 𝟏 −𝟏 ⋮ 𝟒 𝟔 𝑭′𝟐=𝟐.𝑭𝟐−𝑭𝟏 𝟐 𝟏 ⋮ 𝟖 𝟕 𝟎 −𝟑 ⋮ 𝟎 𝟓 Las soluciones de cada sistema salen despejando de 𝟐𝐱 + 𝐲 = 𝟖 −𝟑𝐲 = 𝟎 y 𝟐𝐱+ 𝐲 = 𝟕 −𝟑𝐲 = 𝟓 Para el primer sistema la solución es (4 ; 0) y para el segundo la solución es (13/3 ; -5/3) Cálculo de la matriz inversacon Gauss-Jordan, triangulando el sistema por abajo y por arriba de la diagonal. Este es, quizás, el cálculo en donde más se usa la resolución de sistemas simultáneos. Para calcular la inversa de una matriz de tamaño 2x2, debemos resolver un sistema de cuatro ecuaciones con cuatro incógnitas, que podemos llegar a resolver sin triangular matrices ampliadas. El asunto se complica cuando queremos calcular la inversa de una matriz de tamaño 3x3, porque debemos resolver un sistema de nueve ecuaciones con nueve incógnitas. Pero los sistemas que nos quedan planteados cuando buscamos la matriz inversa tienen una particularidad: se pueden separar en sistema más pequeños con la misma matriz de coeficientes (se los suele llamar “sistemas desacoplados”). Veamos un ejemplo, y una manera mecánica de llegar a la matriz inversa: Calcular la matriz inversa de 𝐀 = 𝟏 𝟎 𝟏 𝟐 −𝟏 𝟏 𝟑 𝟒 𝟑 Sabemos que la matriz inversa será de la forma 𝐀−𝟏 = 𝐚 𝐛 𝐜 𝐝 𝐞 𝐟 𝐠 𝐡 𝐢 y, de acuerdo a la definición de matriz inversa, debe cumplir las siguientes ecuaciones matriciales: 𝐀.𝐀−𝟏 = 𝐈𝐝 ; 𝐀−𝟏.𝐀 = 𝐈𝐝 Desarrollemos la primera: 𝐀.𝐀−𝟏 = 𝟏 𝟎 𝟏 𝟐 −𝟏 𝟏 𝟑 𝟒 𝟑 . 𝐚 𝐛 𝐜 𝐝 𝐞 𝐟 𝐠 𝐡 𝐢 = 𝟏 𝟎 𝟎 𝟎 𝟏 𝟎 𝟎 𝟎 𝟏 𝐚+ 𝐠 𝐛+ 𝐡 𝐜+ 𝐢 𝟐𝐚 − 𝐝+ 𝐠 𝟐𝐛 − 𝐞 + 𝐡 𝟐𝐜 − 𝐟+ 𝐢 𝟑𝐚+ 𝟒𝐝+ 𝟑𝐠 𝟑𝐛+ 𝟒𝐞+ 𝟑𝐡 𝟑𝐜+ 𝟒𝐟+ 𝟑𝐢 = 𝟏 𝟎 𝟎 𝟎 𝟏 𝟎 𝟎 𝟎 𝟏 Al igualar coeficiente a coeficiente, nos quedan nueve ecuaciones con nueve incógnitas, pero las incógnitas se distribuyen de manera especial: hay tres ecuaciones con solamente tres incógnitas, otras tres ecuaciones con otras tres incógnitas solamente, y las tres ecuaciones restantes contienen las tres incógnitas restantes, entonces el sistema se separa en tres minisistemas, cada unos de tres ecuaciones con tres incógnitas. Y todos tienen la misma matriz de coeficientes, entonces podemos resolverlos como sistemas simultáneos. Y observen quién es la matriz de coeficientes... 𝐚+ 𝐠 = 𝟏 𝟐𝐚 − 𝐝+ 𝐠 = 𝟎 𝟑𝐚+ 𝟒𝐝+ 𝟑𝐠 = 𝟎 ; 𝐛+ 𝐡 = 𝟎 𝟐𝐛 − 𝐞+ 𝐡 = 𝟏 𝟑𝐛+ 𝟒𝐞+ 𝟑𝐡 = 𝟎 ; 𝐜 + 𝐢 = 𝟎 𝟐𝐜 − 𝐟+ 𝐢 = 𝟎 𝟑𝐜+ 𝟒𝐟+ 𝟑𝐢 = 𝟏 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟐 −𝟏 𝟏 ⋮ 𝟎 𝟏 𝟎 𝟑 𝟒 𝟑 ⋮ 𝟎 𝟎 𝟏 𝑭′ 𝟐=𝑭𝟐−𝟐.𝑭𝟏 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎 𝟑 𝟒 𝟑 ⋮ 𝟎 𝟎 𝟏 𝑭′ 𝟑=𝑭𝟑−𝟑.𝑭𝟏 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎 𝟎 𝟒 𝟎 ⋮ −𝟑 𝟎 𝟏 𝑭′𝟑=𝑭𝟑+𝟒.𝑭𝟐 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎 𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏 Con esto, ya podríamos despejar los coeficientes que forman la inversa, pero para que el despeje sea automático, vamos a seguir triangulando “para arriba”: trataremos de poner ceros en la matriz de coeficientes por arriba de la diagonal, empezando a ubicar los ceros de la tercer columna arriba del -4, que será el nuevo pivote, luego los que necesitamos en la segunda columna: 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟎 −𝟏 −𝟏 ⋮ −𝟐 𝟏 𝟎 𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏 𝑭′ 𝟐=𝟒.𝑭𝟐−𝑭𝟑 𝟏 𝟎 𝟏 ⋮ 𝟏 𝟎 𝟎 𝟎 −𝟒 𝟎 ⋮ 𝟑 𝟎 −𝟏 𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏 𝑭′ 𝟏=𝟒.𝑭𝟏+𝑭𝟑 𝟒 𝟎 𝟎 ⋮ −𝟕 𝟒 𝟏 𝟎 −𝟒 𝟎 ⋮ 𝟑 𝟎 −𝟏 𝟎 𝟎 −𝟒 ⋮ −𝟏𝟏 𝟒 𝟏 → 𝟏 𝟎 𝟎 ⋮ −𝟕/𝟒 𝟏 𝟏/𝟒 𝟎 𝟏 𝟎 ⋮ −𝟑/𝟒 𝟎 𝟏/𝟒 𝟎 𝟎 𝟏 ⋮ 𝟏𝟏/𝟒 −𝟏 −𝟏/𝟒 En el último paso, dividimos la fila 1 por 4, la fila 2 por -4 y la fila 3 por -4. Y del lado de la matriz de coeficientes nos quedó la identidad. Ahora, el despeje de los coeficientes de la matriz inversa es directo: 𝐚 = −𝟕/𝟒 𝐝 = −𝟑/𝟒 𝐠 = 𝟏𝟏/𝟒 ; 𝐛 = 𝟏 𝐞 = 𝟎 𝐡 = −𝟏 ; 𝐜 = 𝟏/𝟒 𝐟 = 𝟏/𝟒 𝐢 = −𝟏/𝟒 Conclusión: 𝐀−𝟏 = −𝟕/𝟒 𝟏 𝟏/𝟒 −𝟑/𝟒 𝟎 𝟏/𝟒 𝟏𝟏/𝟒 −𝟏 −𝟏/𝟒 . Del lado de la matriz de coeficientes ponemos la matriz A y del otro lado Id, aplicamos Gauss-Jordan hasta que del lado de los coeficientes aparece Id, entonces lo que queda a la derecha será directamente A-1. Con esto terminamos todos los temas de las guías 1, 2, 3 y 4, o sea, todo lo que entra en el primer parcial.