Logo Studenta

Diagonalización y factorización de matrices

¡Estudia con miles de materiales!

Vista previa del material en texto

Nombre del alumno: Antony Arturo García Pérez
Matrícula: 2020690020
Carrera: Licenciatura en Ciencia de Datos
Nombre de la materia: Álgebra Lineal
Nombre del docente: Juan Candelario Pantoja Espinoza
Diagonalización y factorización de matrices
Sabinas, Coahuila							24/01/2021
Opción 2. 
Apuntes de los conceptos, aplicación y ejemplo de:
a) diagonalización de matrices.
Conceptos.
Diagonalizar como su nombre indica es un proceso mediante el cual obtenemos una matriz diagonal de nuestra matriz original, y por tanto facilitará la realización de algunos cálculos.
Aplicación.
En un país existen tres fábricas de componentes que controlan el mercado de venta de componentes en régimen de oligopolio. A lo largo del tiempo algunos clientes cambian de fábrica por diversas razones: publicidad, precio u otras. Se pretende modernizar y analizar el movimiento del mercado, asumiendo, para simplificar el modelo, que la misma fracción de consumidores cambia de una fábrica a otra durante cada periodo de tiempo, un mes por ejemplo. Denotando x0, y0, z0 la fracción de mercado controlada por cada fábrica, se tiene que x0 + y0 + z0 = 1. Sea N el número fijo de clientes.
Después de un mes las fracciones correspondientes son x1, y1, z1. Suponemos que la primera fábrica ha mantenido una fracción a11 de los clientes que tenía, y ha atraído una fracción a12 de la segunda y a13 de la tercera fábrica. Análogamente se hace para las otras dos fábricas.
Entonces se tiene:
X1 = a11 x0 + a12 y0 +a13 z0 
y1 = a21 x0 + a22 y0 +a23 z0 
z1 = a31 x0 + a32 y0 +a33 z0 
Expresado en forma matricial: X1 = A X0 
Como hemos supuesto que la misma fracción de clientes cambia de una fábrica a otra durante cada mes, entonces se tiene que Xn+1 = A Xn y, en consecuencia, Xn+1 = An+1 X0 
Se comprueba fácilmente que para cualquier índice, xn + yn + zn = 1. 
En conclusión, el estudio de mercado se traduce, matemáticamente, en calcular potencias de una matriz. En este contexto es fácil entender la necesidad del estudio de la diagonalización de matrices para calcular la potencia de una matriz.
Ejemplo
Pasos para diagonalizar una matriz:
Diagonalizar si es posible la matriz H: 
1º) Calculamos la ecuación característica para obtener los valores propios: | H- λI|=0
Por tanto, los valores propios que obtenemos son: λ1=0, λ2=1, λ3=3.
2º) Como todos los valores propios son distintos, entonces podemos admitir que nuestra matriz A es diagonalizable. La matriz D diagonal será:
Observación: El orden en el que coloquemos los valores propios en la diagonal es indiferente, pero tendremos que tener cuidado a la hora de calcular la matriz de paso, P (ya que cada vector propio irá en la columna correspondiente a su valor propio).
3º) Una vez que ya tenemos los valores propios, vamos a calcular la matriz de paso P, para ello, buscamos una base para cada uno de los subespacios vectoriales:
-Si λ=0, entonces calculamos (H-0 λ), para calcular el núcleo, escribimos el sistema que resulta cuando hacemos (H-0 λ) X=0, donde X es el vector columna formado por X=(x y z) ´.
Obtenemos la base {(2, 1,0)}
-Análogamente, si λ=1, entonces calculamos (H-1 λ) y calculamos su núcleo:
Obtenemos la base {(1, 0,0)}
-Por último, cuando λ=3, entonces calculamos (H-3 λ) y calculamos su núcleo:
Obtenemos la base {(-5, 5,-3)}
Por tanto la matriz de cambio P será:
b) factorización de matrices.
Concepto
En álgebra lineal la factorización de una matriz es la descomposición de la misma como producto de dos o más matrices según una forma canónica.
Según las aplicaciones de la factorización podemos distinguir los siguientes tipos de factorizaciones:
Las siguientes factorizaciones se utilizan en la resolución de sistemas de ecuaciones lineales, cálculo de determinantes e inversión de matrices:
Factorización LU
Aplicable a: una matriz cuadrada A
Factorización: A = LU donde L es una matriz triangular inferior y U es una matriz triangular superior
Notas: La factorización LU expresa el método de Gauss en forma matricial. En efecto, PA = LU donde P es una matriz de permutación. Los elementos de la diagonal principal de L son todos iguales a 1. Una condición suficiente de que exista la factorización es que la matriz A sea invertible.
Factorización LDLT
Aplicable a: una matriz simétrica A.
Factorización: A = LDLT donde L es una matriz triangular inferior con unos en la diagonal y LT denota su matriz traspuesta. La factorización es única.
Existencia: Una condición suficiente es que todos los menores principales de A sean distintos de cero.
Notas: Si la matriz es definida positiva la factorización existe y es única siendo los elementos de la diagonal positivos.
Factorización de Cholesky
Aplicable a: una matriz simétrica definida positiva A
Factorización: A = LLT donde L es una matriz triangular inferior con entradas en la diagonal positivas.
Notas: La factorización siempre existe y es única.
Factorización QR o triangularización ortogonal
Aplicable a: una matriz A m por n.
Factorización: A = QR donde Q es una matriz ortogonal m por m, y R es una matriz triangular superior m por n.
Métodos de cálculo: La factorización QR puede calcularse mediante el proceso de ortogonalización de Gram-Schmidt aplicado a las columnas de A, mediante el uso de transformaciones de Householder y mediante transformaciones de Givens.
Notas: La factorización QR puede utilizarse para "resolver" el sistema de ecuaciones lineales Ax = b cuando el número de ecuaciones es distinto al de incógnitas.
Descomposición en valores singulares
Aplicable a: una matriz A m-por-n.
Factorización: A = UΣVT, donde Σ es una matriz diagonal mxn, y U y V son matrices ortogonales mxm y nxn respectivamente, siendo VT la traspuesta de V. Los elementos de la diagonal de Σ son los valores singulares de A y son mayores o iguales a cero.
Notas: a la matriz VΣ+UT, donde Σ+ es igual a la matriz Σ reemplazando los valores singulares por sus recíprocos, se le llama pseudoinversa de A.
Aplicaciones
La Factorización de matrices tiene enormes aplicaciones en todo tipo de problemas relacionados a la inteligencia artificial, ya que la reducción de dimensionalidad es la esencia de la cognición.
Asimismo, la Factorización de matrices es también un tema unificador dentro del álgebra lineal numérica. Una amplia variedad de algoritmos se han desarrollado a lo largo de muchas décadas, proporcionando una plataforma numérica para operaciones de matrices tales como, la resolución de sistemas de ecuaciones lineales, la descomposición espectral, y la identificación de subespacios vectoriales. Algunos de estos algoritmos también han demostrado ser de utilidad en problemas de análisis estadístico de datos, como es el caso de la descomposición en valores singulares o SVD, por sus siglas en inglés, que es la base del análisis de componentes principales o PCA, que es una técnica muy utilizada para reducir el tamaño de los datos. Muchas investigaciones actuales en Machine Learning han centrados sus esfuerzos en el uso de la Factorización de matrices para mejorar el rendimiento de los sistemas de aprendizaje. Principalmente en el estudio de la factorización de matrices no negativas (NMF), la cual se centra en el análisis de matrices de datos cuyos elementos son positivos (no negativos), una ocurrencia muy común en los conjuntos de datos derivados de textos e imágenes.
Ejemplo
Encontrar una factorización de la forma P A = LU para la matriz
Utilizando pivoteo parcial.
Es entonces
La matriz L es
Para matriz P, la matriz de permutación, observamos que cambiamos la fila 1 y 3, es decir
Se comprueba que

Continuar navegando