Logo Studenta

Sistemas de Ecuaciones Lineales (1)

¡Este material tiene más páginas!

Vista previa del material en texto

Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 1 
 SISTEMAS DE ECUACIONES LINEALES 
INTRODUCCION 
Los sistemas de ecuaciones lineales tienen la forma general 
 
 
 
Donde las son los coeficientes constantes, las son los términos independientes constantes y 
 es el número de ecuaciones. 
Cuando se desea resolver ecuaciones lineales se pueden recurrir a diferentes métodos. Si son 
pocas ecuaciones ( existen técnicas simples; de lo contrario es conveniente (e incluso 
obligatorio) el uso de la computadora. Esto se debe a que con una gran cantidad de ecuaciones 
aumenta la complejidad y el volumen de operaciones. Adicionalmente aumenta el error 
introducido por cada cálculo. 
Históricamente, la incapacidad para resolver a mano los sistemas de ecuaciones más grandes ha 
limitado el alcance de problemas por resolver en muchas aplicaciones de ingeniería. 
Antes de las computadoras, las técnicas para resolver ecuaciones algebraicas lineales consumían 
mucho tiempo y eran poco prácticas. Esos procedimientos restringieron la creatividad debido a 
que con frecuencia los métodos eran difíciles de implementar y entender. Como resultado, las 
técnicas se sobreenfatizaron, a expensas de otros aspectos del proceso de resolución de 
problemas tales como la formulación y la interpretación 
El surgimiento de las computadoras hizo posible resolver grandes sistemas de ecuaciones 
algebraicas lineales simultáneas. Así, se pueden enfrentar ejemplos y problemas más 
complicados. Además, se cuenta con más tiempo para usar sus habilidades creativas, ya que se 
pondrá mayor énfasis en la formulación del problema y en la interpretación de la solución. 
METODOS DIRECTOS E ITERATIVOS 
Una forma de resolver sistemas de ecuaciones lineales consiste en usar la Regla de Cramer. Esta 
técnica (y otras similares) desde el punto de vista numérico no son aceptables debido al elevado 
coste operacional que conllevan, incluso para sistemas pequeños. 
Por este motivo se desarrollaron diversos métodos tendientes a resolver estos inconvenientes. 
Estos métodos fueron agrupados en dos tipos: 
 Métodos Directos: tratan de obtener la solución exacta del sistema (en la medida que lo 
permitan los errores de redondeo) tras realizar un número finito de operaciones 
elementales que dependen de la dimensión del sistema. 
 Métodos Iterativos: generan a partir de un vector inicial una sucesión que 
converge a la solución del sistema lineal cuando tiende a infinito. Estos métodos se 
aplican sobre todo cuando la matriz del sistema tiene muchos elementos nulos. 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 2 
Ambos tipo de métodos utilizan el álgebra y la notación matricial para generar y manejar 
modelos que representen de una forma concisa las ecuaciones lineales. 
ALGEBRA MATRICIAL 
Una matriz consiste en un arreglo rectangular de elementos representado por un solo símbolo. 
Ej: 
 
Como se observa, es la notación breve para la matriz y designa un elemento individual 
de la matriz. 
Un conjunto horizontal de elementos se llama un renglón (o fila); y uno vertical, columna. El 
primer subíndice siempre designa el número del renglón en el cual está el elemento. El 
segundo subíndice designa la columna. Por ejemplo, el elemento está en el renglón 2 y la 
columna 3. 
Una matriz que tiene renglones y columnas, se dice que tiene una dimensión (o tamaño) 
de por (o ). 
A las matrices con dimensión renglón , tales como se les conoce 
como vectores renglón o fila. 
Las matrices con dimensión columna , tales como 
 
 
 
 
 
 se les conoce como vectores columna. 
A las matrices que cumplen se las denominan matrices cuadradas. Por ejemplo: 
 
A la diagonal que contiene los elementos de una matriz cuadrada se le 
llama diagonal principal de la matriz. 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 3 
Las matrices cuadradas resultan particularmente importantes cuando se resuelven sistemas de 
ecuaciones lineales simultáneas. En tales sistemas, el número de ecuaciones (que corresponde a 
los renglones) y el número de incógnitas (que corresponde a las columnas) debe ser igual para 
que sea posible tener una solución única (siempre que el sistema posea solución; también puede 
suceder que el sistema ofrezca muchas soluciones). 
 
Tipos de Matrices Cuadradas 
 
 Matriz Simétrica: es aquella donde . Ej: 
 
 Matriz Diagonal: es aquella donde todos los elementos fuera de la diagonal principal 
son iguales a cero (0). 
 
 Matriz Identidad: es aquella donde todos los elementos de la diagonal principal son 
igual a 1. Se denota 
 
 Matriz Triangular Superior: es aquella donde todos los elementos debajo de la 
diagonal principal valen cero (0) 
 
 Matriz Triangular Inferior: es aquella donde todos los elementos por encima de la 
diagonal principal valen cero (0) 
 
 Matriz Bandeada: es aquella donde todos los elementos valen cero (0) con excepción 
de la diagonal principal y aquellos que forman una banda centrada sobre la diagonal 
principal. 
 
Observe que el “ancho de banda” en este modelo de ejemplo es igual a 3 (se dice 
tridiagonal) 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 4 
Reglas de Operaciones con Matrices 
 
 Igualdad de matrices: dos matrices son iguales si y solo si, cada elemento en la 
primera matriz es igual a cada elemento en la segunda matriz; es decir, 
 
 Suma de matrices: Solo puede realizarse entre matrices de la misma dimensión. Dados 
 y se define como la suma de los términos correspondientes de 
cada matriz, es decir, 
 
 Resta de matrices: Solo puede realizarse entre matrices de la misma dimensión. Dados 
 y se define como la resta de los términos correspondientes de 
cada matriz, es decir, 
 
 La suma de matrices es conmutativa: 
 La suma de matrices es asociativa: 
 Multiplicación Escalar: Dada una matriz y un escalar se define el producto 
escalar de una matriz como el producto del escalar respecto de cada elemento de la 
matriz, es decir, 
 
[
 
 
 
 
 
 
 
 
 
 
 
 
 
 ]
 
 
 
 
 
 Producto de dos matrices: Dadas las matrices y se define 
siguiendo la siguiente ecuación para cada uno de los elementos de 
 ∑ 
 
 
 
Donde: 
 (Conformidad del 
producto) 
En general se puede utilizar el siguiente esquema para determinar si se puede realizar el 
producto y obtener la dimensión de la matriz que representa al producto 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 5 
Ejemplo: Suponga que quiere multiplicar por para obtener , donde 
 
El procedimiento a seguir se describe en las siguientes imágenes: 
 
 
 
Consecuencia: El producto de matrices NO es conmutativo. 
 
Cálculo de la Matriz Inversa 
Si una matriz es cuadra y no singular entonces existe otra matriz denominada matriz inversa 
 para la cual 
 
Así, la multiplicación de una matriz por su inversa es análoga a la división, en el sentido de que 
un número dividido por sí mismo es igual a 1. 
Manipulaciones sobre matrices 
 La Transpuesta de una matriz: implica transformar sus renglones en columnas y 
viceversa. Ej:En otras palabras, el elemento de la transpuesta es igual al elemento de la matriz 
original. 
 La traza de una matriz es la suma de los elementos en su diagonal principal. Se denota 
 y se calcula de la siguiente manera 
 ∑ 
 
 
 
 La aumentación: una matriz es aumentada al agregar una columna (o columnas) a la 
matriz original. Ej: Sea una matriz cuadrada de se desea aumentarla con la 
matriz identidad 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 6 
 
METODOS DIRECTOS 
Permiten obtener la solución exacta del sistema lineal al cabo de un número finito de 
pasos (salvo errores de rendondeo), donde 
 es la matriz cuadrada . de los coeficientes 
 
 es el vector columna de las incógnitas 
 es el vector columna de las constantes independientes. 
En general los métodos directos consisten en reducir el sistema considerado a uno o varios 
sistemas triangulares, cuya solución se obtiene fácilmente por un proceso de sustitución hacia 
atrás o por sustitución hacia adelante, según se trate de un sistema triangular superior o inferior 
respectivamente. En el estudio de los métodos directos habrá que prestar especial atención a su 
coste computacional, debido a que, cuanto mayor sea el número de operaciones a realizar, 
mayor será el tiempo de cálculo necesario y mayor será la propagación de los errores de 
redondeo, disminuyendo la fiabilidad de la solución obtenida. Habrá que analizar asimismo las 
necesidades de memoria de cada método. 
La solución de un sistema de ecuaciones puede clasificarse de la siguiente manera: 
 Compatible: Si admite solución. En este caso también se puede determinar si es 
Determinado: Con solución única 
Indeterminado: Si la solución no es única. 
 Incompatible: Si no admite solución 
Teorema de Rouché – Frobenius: Si el rango de una matriz de coeficientes es igual al rango 
de la matriz aumentada . 
Corolario: Un sistema compatible será determinado si el rango de una matriz de coeficientes es 
igual al número de incógnitas , y será indeterminado si el rango de la matriz de 
coeficientes es menor que el número de incógnitas 
Método Eliminación de Gauss 
El método de Gauss propone una sucesión de operaciones elementales que elimine 
ordenadamente determinadas incógnitas de las ecuaciones hasta lograr un sistema triangular 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 7 
(superior) de modo que las incógnitas puedan irse despejando sucesivamente a partir de la 
última ecuación. 
El método de Gauss es el método que se utiliza en forma más amplia para resolver un conjunto 
de ecuaciones lineales y solo se aplica al caso de los conjuntos no homogéneos (cuando alguno 
de los términos independientes es distinto de cero). 
Consiste en dos partes: 
a) La eliminación hacia adelante: 
La primera ecuación se multiplica por 
 
 
 y se le resta a la segunda ecuación para 
eliminar el primer término de la segunda; de la misma forma, el primer término de las 
ecuaciones restantes se elimina restando la primera ecuación multiplicada por 
 
 
. Así las ecuaciones se deberían ver así: 
 
 
 
 
 
Donde 
 (
 
 
) 
 
De esta forma tenemos la MISMA ecuación representada de otra forma 
 
Enseguida, el segundo término de cada una de las ecuaciones, desde la tercera hasta la 
última se elimina restando la segunda ecuación multiplicada por 
 
 
. 
Después de terminar este paso, se eliminan los terceros términos de las demás 
ecuaciones, de la cuarta a la última. Al finalizar este proceso de eliminación hacia 
adelante, el conjunto de ecuaciones se verá de la siguiente forma 
 
 
 
 
 
 
 
 
Los términos principales de cada una de las ecuaciones anteriores reciben el nombre de 
pivotes. Se podría normalizar cada una de las ecuaciones, dividiendo entre el coeficiente 
principal, pero esto no se utiliza en la eliminación de Gauss; la razón principal es que la 
normalización de las ecuaciones aumenta el tiempo total de cálculo. 
b) La sustitución hacia atrás: 
Comienza con la última ecuación 
 
 
 
 
 
 
Y sucesivamente 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 8 
 
[ 
 
 
 
 ]
 
 
 
. 
. 
 
[ ∑ 
 
 ]
 
 
Con esto se completa la eliminación de Gauss. 
La eliminación de Gauss se puede realizar escribiendo solo los coeficientes y los lados 
derechos en una forma de matriz. De hecho, esto es precisamente lo que hace un 
programa de computadora. Incluso para los cálculos a mano, es más conveniente utilizar 
una matriz que escribir todas las ecuaciones. 
 
Ejemplo: Resuelva las siguientes ecuaciones lineales en forma de arreglo 
 
a) La forma de la matriz que representa al sistema es 
 
b) Se realizan las operaciones de la eliminación de incógnitas 
Acción Resultado 
Se multiplica la primera fila por 
 
 
. 
Luego se resta a la segunda fila. 
 
Se multiplica la primera fila por 
 
 
. 
Luego se resta a la tercera fila. 
 
Se multiplica la segunda fila por 
 
 
. 
Luego se resta a la tercera fila. 
 
 
c) Se realizan las operaciones de sustitución hacia atrás 
Empezamos por la última fila interpretando 
 
 
 
 
 
 
Análogamente 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Y 
 
 
 
 
 
Método Eliminación de Gauss con Pivoteo 
El método de Eliminación de Gauss no se puede aplicar si el primer coeficiente de la primera 
fila es igual a cero o si u coeficiente de la diagonal principal se anula en el proceso de solución, 
ya que se usan como denominadores en la eliminación hacia adelante. 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 9 
El pivoteo se usa para cambiar el orden secuencial de las ecuaciones con dos propósitos: 
1. Evitar que los coeficientes de la diagonal se anulen 
2. Hacer que cada coeficiente de la diagonal tenga magnitud mayor que cualquiera de 
los coeficientes por debajo de él. 
Las ecuaciones no se afectan matemáticamente por cambios en el orden secuencial, pero el 
cambio de orden hace posible el cálculo cuando el coeficiente de la diagonal se anula. Aun 
cuando todos los coeficientes de la diagonal fueran nulos, los cambios de orden aumentan la 
exactitud de los cálculos. 
El pivoteo tiende a incrementar sustancialmente la cantidad de esfuerzo. 
Para explicar el pivoteo, consideremos la siguiente matriz 
 
No se puede eliminar el primer número de la segunda y tercera fila debido a que el primer 
número de la primera fila es igual a cero. En nuestro primer pivoteo, se intercambian la primera 
y última fila debido a que el primer número de la tercera fila tiene el mayor módulo (valor 
absoluto) de la primera columna. El hecho de llevar el número más grande de la columna a la 
posición diagonal tiene la ventaja de reducir el error de redondeo. Después de este pivoteo, 
matriz queda así 
 
 
El primer número de la tercera fila ya es igual a cero, por lo que procedemos a eliminar el 
segundo número, 10, de la tercera fila. Sin embargo, este número es mayor que el segundo 
número de la segunda fila (coeficiente de la diagonal). En general, como ya se ha mencionado, no 
es recomendable eliminarun número mayor en magnitud que el término de la diagonal. Por lo tanto 
se intercambia la segunda fila por la tercera: 
 
 
 
Y aplicando la regla de eliminación queda 
 
 
Luego se procede a la sustitución hacia atrás obteniéndose 
 
 
Método Eliminación de Gauss Jordan 
Dado el siguiente sistema de ecuaciones lineales 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 10 
 
 
El método de Gauss – Jordan busca la solución mediante la reducción del sistema dado a otro 
equivalente en el que cada ecuación tiene una incógnita menos que la anterior; para ello el 
método consta de un algoritmo que transforma la matriz de los coeficientes en una matriz 
identidad. 
El método de Gauss - Jordan utiliza operaciones de una fila en la matriz aumentada conformada 
por los coeficientes y las constantes. Por ejemplo: 
Sistema de Ecuación Lineal Matriz Ampliada 
 
 
Las operaciones que se realicen generan una nueva matriz aumentada. Esta nueva matriz debe 
ser equivalente a la anterior. En este contexto dos matrices aumentadas son equivalentes según 
sus filas si estas son de sistemas de ecuaciones equivalentes. 
Las siguientes operaciones transforman matrices aumentadas en nuevas matrices aumentadas 
equivalentes: 
1) Intercambiar dos filas de posición. Ej: 
 
2) Multiplicar una fila por una constante distinta de cero. ej 
 
3) Sumar o restar una fila y un múltiplo de otra fila. Ej: multiplicar la fila por 3 y sumarla a 
la segunda fila 
 
Con estas operaciones el objetivo será transformar una matriz aumentada en una matriz 
triangular superior equivalente y posteriormente resolver ese sistema de ecuaciones. 
Ejemplo: Resuelva por Gauss Jordan el siguiente sistema de ecuaciones lineales 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 11 
 Se representa la matriz ampliada del sistema 
 
 Se procede a realizar operaciones con el fin de obtener una matriz triangular superior 
Acción Resultado 
Intercambiar fila 1 por fila 2 
 
 
Se multiplica la fila 1 por 2 y se resta a la 
fila 2 
 
 
Se multiplica la fila 1 por 3 y se resta a la 
fila 3 
 
 
Se multiplica la fila 2 por 
 
 
 
 
 
Se multiplica la fila 2 por 100 y se resta a 
la fila 3 
 
 
Se multiplica la fila 3 por 
 
 
 
 
 
 
 Obtener el nuevo sistema de ecuaciones 
 
 Obtener los valores de las incógnitas por sustitución 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 12 
Este método no es recomendable respecto de otros como por ejemplo el método de eliminación 
de Gauss Simple ya que genera hasta un 50% de cálculos adicionales, sin generar mayores 
beneficios. La propagación del error de redondeo por lo tanto puede aumentar. 
METODOS ITERATIVOS 
Cuando la dimensión de un sistema lineal es alta, el número de operaciones que conlleva un 
método directo crece considerablemente, lo que puede producir largos tiempos de cálculo y una 
significativa acumulación de errores de redondeo. Para solventar en lo posible estos problemas, 
se puede recurrir a los métodos iterativos, que son menos sensibles a la propagación de los 
errores de redondeo y están mejor adaptados a la resolución de grandes sistemas lineales. Los 
métodos iterativos están basados en la siguiente idea: dado un sistema , con regular 
(significa que existe otra matriz , tal que ), se le asocia un sistema lineal 
equivalente , que se resuelve de forma iterativa, esto es, a partir de un vector inicial 
 se genera una sucesión de la forma 
 
Si la sucesión { } converge a un vector , este es solución del sistema , y por lo 
tanto del sistema original . Una condición necesaria y suficiente para que la sucesión 
{ } sea convergente para cualquier vector inicial , es que , donde 
denota el radio espectral de la matriz . Para que esto ocurra, basta con que ‖ ‖ para 
alguna norma matricial, ya que ‖ ‖ . 
Otro resultado interesante establece que ‖ ‖ ‖ ‖ ‖ ‖ con lo que la 
convergencia es más rápida cuanta más pequeña sea ‖ ‖. 
Método Jacobi 
El método de Jacobi es el método iterativo para resolver sistemas de ecuaciones lineales más 
simple y se aplica sólo a sistemas cuadrados, es decir a sistemas con tantas incógnitas como 
ecuaciones. 
Se parte de la idea de buscar una suma de matrices para de tal forma que se puede 
sustituir en para despejar . 
Para ello: 
 = es una matriz cuya diagonal principal se corresponde con los valores de la diagonal 
principal de , mientras que el resto de sus valores es igual a cero. 
 = es una matriz cuyos valores de la diagonal principal valen cero, mientras que el 
resto de los valores se corresponde con los valores de . 
 
[
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 ]
 
 
 
 
 
[
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 ]
 
 
 
 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 13 
 
[
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 ]
 
 
 
 
 
 
Ahora se realizan diversas operaciones algebraicas matriciales: 
 
 
 
 
 
Esta ecuación aporta una solución por sí misma, si se observa desde la óptica del algebra 
matricial. Sin embargo, si se aplica desde una forma recursiva: 
 
Para y donde representa un vector solución inicial y representa una 
aproximación posterior a la inicial. Se puede constatar que la ecuación es totalmente 
representativa de un método de aproximaciones sucesivas. 
En contexto, la ecuación equivale, a partir del sistema de 
ecuaciones lineales, a despejar a la incógnita ubicada en la diagonal principal de cada una de las 
ecuaciones que conforman el sistema, de la siguiente forma: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
El método propone que el vector inicial sea igual a cero. A partir de esta propuesta, el vector 
solución siguiente será 
 
 
 , es decir, el elemento independiente entre el coeficiente de la 
diagonal principal para cada ecuación. 
El vector se sustituye en las ecuaciones obteniéndose . El 
proceso se repite un número preestablecido de veces o hasta que 
| |
| |
 , donde es una 
tolerancia de error previamente establecida. 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 14 
Criterio de convergencia 
1) Condición necesaria: el elemento ubicado en la diagonal principal de cada ecuación 
debe ser mayor en valor absoluto al resto de los elementos de la misma ecuación. 
| | | | 
2) Condición suficiente: el elemento ubicado en la diagonal principal de cada ecuación 
debe ser mayor en valor absoluto a la suma del resto de los elementos de la misma 
ecuación. 
| | ∑| | 
Algoritmo 
1) Plantear el vector solución inicial 
2) Establecer la tolerancia de error 
3) Verificar los criterios de convergencia 
4) Calcular el próximo vector solución mediante la siguiente ecuación 
 
O lo que es lo mismo 
 
 
 
 
 
 ∑ 
 
 
 
 
 
5) Verificar el criterio de parada con 
| |
| |
 . Si la condición se verifica para cada 
 finaliza el proceso iterativo y se tomaal vector 
 como la aproximación a la 
solución del sistema de ecuaciones lineales. Caso contrario se vuelve a repetir el 
procese desde el punto 4. 
Método Gauss-Seidel 
Este método es una versión acelerada del método de Jacobi. En el método de Jacobi es necesario 
contar con un vector aproximado completo para proceder a la sustitución en las ecuaciones de 
recurrencia y obtener una nueva aproximación. En el método de Gauss-Seidel se propone ir 
sustituyendo los nuevos valores de la aproximación siguiente conforme se vayan obteniendo sin 
esperar a tener un vector completo. De esta forma se acelera la convergencia. 
A partir de las ecuaciones de recurrencia del método de Jacobi: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Cálculo Numérico (Ing Informática, Ing Minas, Lic Sistemas) Facultad de Ingeniería - UNJu 
Mtr Ing Ariel Alejandro Vega 15 
Criterio de convergencia 
Es el mismo que se debe cumplir para el método Jacobi 
Algoritmo 
1) Plantear el vector solución inicial 
2) Establecer la tolerancia de error 
3) Verificar los criterios de convergencia 
4) Calcular el próximo vector solución mediante la siguiente ecuación 
 
 
 
 
 
 ∑ 
 
 
 
 
 ∑ 
 
 
 
 
 
5) Verificar el criterio de parada con 
| |
| |
 . Si la condición se verifica para cada 
 finaliza el proceso iterativo y se toma al vector 
 como la aproximación a la 
solución del sistema de ecuaciones lineales. Caso contrario se vuelve a repetir el 
procese desde el punto 4. 
Método de Relajación 
El método de relajación fue ideado por el ingeniero británico Richard Southwell. Converge más 
rápidamente que el de Gauss-Seidel. Consiste en tomar nueva aproximación a la solución como 
una combinación lineal de la solución de la etapa anterior, es decir aplicando la fórmula 
correspondiente al método de Gauss-Seidel pero con la incorporación de un factor de relajación 
denominado w: 
 
 
 
 
 
 
 ∑ 
 
 
 
 
 ∑ 
 
 
 
 
 toma un valor entre 0 y 2; y se determina por prueba y error y además tendrá la siguiente 
denominación según: 
 Si , es aplicable en los casos en que el Método de Gauss-Seidel diverge y se 
denomina Método de Subrelajación. 
 Si , es aplicable para acelerar la convergencia del Método de Gauss-Seidel y 
se denomina Método de Sobrelajación. 
 Si , se denomina Método de Gauss-Seidel.

Continuar navegando