Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Universidad Nacional Autónoma de México Facultad de Estudios Superiores Plantel Aragón INGENIERIA INDUSTRIAL CLASE: algebra lineal Trabajo PRACTICA GRUPO:8105 NOMBRE DEL PROFESOR: ALBERTO HIGUERA GARCIA NOMBRE DEL ALUMNO: CORTES HERNANDEZ RICARDO FECHA DE ENTREGA: SEPTIEMBRE DEL 2021 Índice Matrices y Determinantes 2 Producto de Matrices 4 Determinante de una Matriz 6 Matrices Especiales 12 Rango de una Matriz 30 Sistema de Ecuaciones Lineales 35 Conclusiones 37 Espacios Vectoriales 38 Sub-Espacios Vectoriales 39 Conjunto Generador de un Espacio Vectorial 40 Espacio Generado por un conjunto de vectores 40 Bases y Dimensión de un Espacio Vectorial 41 Suma de Espacios Vectoriales 43 Suma Directa de Espacios Vectoriales 44 Conclusión 45 Transformaciones Lineales 46 Relación entre Transformaciones y Matrices 47 Núcleo e Imagen 48 Matriz de una Transformación Lineal 50 Inyectividad, Sobreyectividad y Biyectividad 52 Conclusión 53 Autovalores y Autovectores 54 Diagonalización: Casos 54 Conclusión 68 Espacios con Producto Interno 69 Proceso de Ortogonalización de Gram-Schimdt 69 Conclusión 72 Matrices y Determinantes Sea un cuerpo (, definimos el siguiente conjunto: Knxm = { [aij] / aij ∈ K ⩝ i ∈ {1;2;3;…..n} ; ⩝ j ∈ {1;2;3;…..n} } . Notación: [aij]nxm = Suma (adición): · Knxm x Knxm → Knxm ([aij] , [bij]) → [aij] + [bij] = [aij + bij ] Ejemplo: A= B= A+B = Propiedades: · Conmutativa [aij] + [bij] = [bij] + [aij] · Asociativa [aij] + ([bij] + [cij]) = ([aij] + [bij] )+ [cij] · Existencia del elemento neutro [aij] + θ = [aij] , θ=[ θ ij] , θ ij =0 · Dado [aij] ∈ Knxm , existe : B= [-aij] Tal que [aij] + B = θ Producto: Knxp x Kpxm → Knxm ([aij] , [bij]) → [aij] [bij] = [cij] Donde: [cij]== (ai1+……+ aip) (b1j+……+ bpj)= ai1 b1j + ai2 b2j +……+ aip bpj Propiedades: · A(BC) =(AB)C ; A ∈ Knxp , B ∈ Kpxq , C ∈ Kqxm Obs: no se cumple la conmutatividad Obs: n=m → Knxn es llamado conjunto de matrices cuadradas → existe neutro multiplicativo En el conjunto Knxn , existe elemento neutro multiplicativo: Es decir: I = I = [ð] ; ð ij = { 1 , i=j ; 0 , i≠j } A I = I A = A → ⩝ A ∈ Knxn Obs: Sea A ∈ R2X2, A ≠ θ ¿Existe A-1? A = ≠ θ ; A.B = I entonces B = A-1 → .= entonces no tiene A-1 Producto de matrices: Determinante de una Matriz Definición.- Sea la matriz cuadrada de orden , llamaremos determinante de la matriz , al número real que está relacionado con los elementos de la matriz. Notación.- indican el determinante de la matriz cuadrada A. En general: Donde: es submatriz de eliminando la fila y la -ésima columna. Propiedades de las determinantes: 1. El determinante de una matriz cuadrada coincide con el determinante de su traspuesta, es decir: 2. Si intercambiamos dos filas o dos columnas de una matriz cuadrada, su determinante cambia de signo aunque son iguales en valor absoluto. 3. Si multiplicamos todos los elementos de una fila o columna de una matriz cuadrada por un número k, su determinante queda multiplicado por dicho número. Como generalización de esta propiedad, si multiplicamos todos los elementos de una matriz cuadrada de orden n por un número k, su determinante queda multiplicado por kn, es decir: Det (k. A) = kn. Det (A). 4. El determinante del producto de dos matrices cuadradas del mismo orden es igual al producto de los determinantes de dichas matrices: Det (A. B) = Det (A)* Det (B). 5. Si una matriz cuadrada tiene todos los elementos de una fila o columna nulos, su determinante es cero. 6. Si una matriz cuadrada tiene dos filas o dos columnas iguales su determinante es cero. 7. Si una matriz cuadrada tiene dos filas o columnas proporcionales su determinante es cero. 8. Si todos los elementos de una fila o columna de una matriz cuadrada se descomponen en dos sumandos, entonces su determinante es igual a la suma de dos determinantes que tienen en dicha fila o columna el primero y el segundo sumando respectivamente, siendo los restantes elementos iguales a los del determinante inicial. 9. Si una fila o columna de una matriz cuadrada es combinación lineal de dos o más de las restantes filas o columnas, su determinante es cero. 10. Si a una fila o columna de una matriz cuadrada se le suma otra paralela a ella, su determinante no varía. 11. Si a una fila o columna de una matriz cuadrada se le suma otra paralela a ella multiplicada por un número, su determinante no varía. 12. En una matriz A no singular (Det ≠ 0) se cumple: Det(A) = Matrices Especiales · Matriz Cuadrada Una matriz de n por m elementos, es una matriz cuadrada si el número de filas es igual al número columnas, es decir, n = m y se dice, entonces que la matriz es de orden n: Propiedades: Toda matriz cuadrada se puede descomponer en la suma de una matriz simétrica y una matriz antisimétrica. Si A y B son matrices del mismo orden, entonces se pueden sumar entre sí. Los productos de matrices son válidos en ambos sentidos, AB y BA. Además, surgen los conceptos de determinante y traza solo aplicables a matrices cuadradas. Una matriz cuadrada A de orden n es singular si su determinante es nulo. En tal caso se dice que dicha matriz no tiene inversa. · Matriz nula En matemáticas, en particular en álgebra lineal, una matriz cero o matriz nula es una matriz con todos sus elementos iguales a cero. Algunos ejemplos de matrices nulas son: Por lo tanto, una matriz nula de orden mxn definida sobre un anillo K asume la forma: Una matriz cero es, al mismo tiempo, matriz simétrica, matriz antisimétrica, matriz nilpotente y matriz singular. · Matriz Singular Es aquella cuya determinante es 0 y por lo tanto no tiene inversa. · Matriz no singular Es aquella cuya determinante es diferente de cero, también es llamada matriz invertible. · Matriz identidad Llamamos matriz identidad a la matriz cuadrada (mismo número de filas que de columnas) formada por unos en la diagonal y ceros en las demás entradas (posiciones). La representamos por In donde n es la dimensión de la matriz. Propiedades: · Es el neutro del producto de matrices. Es decir, para toda matriz A de dimensión m x n, · Es idempotente, es decir, sus potencias son ella misma · Es regular y su inversa es ella misma. · Es una matriz permutación. · Sólo tiene un autovalor (valor propio), que es 1, con multiplicidad algebraica la misma que la dimensión de la matriz. Notaciones habituales: · Matriz Diagonal Todos los elementos son nulos excepto los de la diagonal, esto es, los elementos que tienen el mismo número de fila que de columna. Una matriz A diagonal de dimensión m x n que tiene por elementos de la diagonal a los elementos del vector v se le denota por Propiedades: · Son un caso particular de las matrices triangulares. · La matriz traspuesta de una matriz diagonal de dimensión m x n es la matriz diagonal de dimensión n x m con la misma diagonal. · En las matrices cuadradas, el determinante es el producto de los elementos de la diagonal: con lo que son regulares si, y sólo si, todos los elementos de la diagonal son distintos de 0. En tal caso : · Potencias (para las cuadradas) · Producto de matrices diagonales: Sean las matrices A y B diagonales de dimensiones respectivas m x n y n x t, su producto es una matriz diagonal de dimensión m x t · Los autovalores (valores propios) de las matrices diagonales cuadradas son los elementos de la diagonal. · Matrices Triangulares Distinguimos dos tipos: · Triangular superior: todos los elementos por debajo de la diagonal de la matriz son 0, es decir, · Triangular inferior: todos los elementos por arriba de la diagonalde la matriz son 0, es decir, Ejemplos Triangular superior Triangular inferior Propiedades : · La matriz traspuesta de una triangular superior es triangular inferior y viceversa. · Si la matriz es cuadrada, su determinante es el producto de los elementos de la diagonal Por tanto, es regular si, y sólo si, los elementos de la diagonal son distintos de 0. En tal caso, · La inversa de una matriz triangular superior (inferior) es una matriz triangular superior (inferior). · El producto de matrices triangulares superiores (inferiores) es una matriz triangular superior (inferior). · Los autovalores (valores propios) de una matriz cuadrada triangular son los elementos de la diagonal. · Matriz Transpuesta La matriz traspuesta de una matriz A de dimensión m x n es una matriz de dimensión n x m que tiene por columnas a las filas de A. Se denota como AT (o A' si la matriz es real). Ejemplos Propiedades: · Traspuesta de la traspuesta · Traspuesta de la suma · Traspuesta del producto · Una matriz es igual que su traspuesta si, y sólo si, es simétrica · El determinante de una matriz regular es igual al de su traspuesta · Matriz Adjunta Sea A una matriz de cuadrada de dimensión n se define su matriz adjunta como donde Ai , j es la matriz que resulta al quitar la fila i y columna j a A. Al elemento ad i , j se le denomina ( i , j )- cofactor (o adjunto) de la matriz A. Propiedades: · Adjunta de la identidad · Adjunta de la traspuesta · Adjunta del producto · Si A es de dimensión n y k un escalar · Si A es regular, su inversa es Ejemplo · Matriz Simétrica (Sn) Una matriz A cuadrada es simétrica si es igual a su traspuesta. Es decir, Ejemplo Propiedades: · La inversa de una matriz simétrica regular es simétrica. · La adjunta de una simétrica es simétrica. · La suma de simétricas es simétrica. El producto lo es si, y sólo si, también es conmutativo. · Los autovalores (valores propios) de una matriz cuadrada, real y simétrica son reales. · Autovectores (vectores propios) de autovalores distintos de una matriz cuadrada y real son ortogonales. · Una matriz cuadrada y real, A, es simétrica si, y sólo si, es diagonalizable mediante una matriz de paso ortogonal, Q. Es decir, · Matriz Antisimétrica (ASn) Una matriz cuadrada A es antisimétrica si es igual a la opuesta de su adjunta, es decir Teorema: Sea A ∈ Rnxn → existe B ∈ Sn , C ∈ ASn Tal que → A=B+C · Matriz nilpotente: (1≤k≤n) Ak = 0 A ≠ 0; Ak-1≠ 0 · Matriz idempotente: A2 = A · Matriz involutiva: A2 = i · Matriz hermitiana: At = A A ∈ Cnxn · Matriz antihermitiana At = A A ∈ Cnxn · Matriz ortogonal At = A-1 · Matriz inversa En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que: , Donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual. Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es nulo. Dada una matriz de 2x2 con determinante no nulo: Está definida siempre y cuando . Así por ejemplo la inversa de la matriz Ya que Dada una matriz de 3x3 con determinante no nulo: Propiedades de la matriz inversa: · La inversa de una matriz, si existe, es única. · La inversa del producto de dos matrices es el producto de las inversas cambiando el orden: · Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir: · Y, evidentemente: · Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad: Donde es el determinante de A y es la matriz de adjuntos de A. Método de Gauss Jordan para encontrar la matriz inversa: Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad, simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada: se construiría y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos multiplicamos la segunda fila por -1 y la intercambiamos con la primera ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo ahora usamos el pivote de la segunda fila y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene invers · Matriz triangular En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más fáciles de resolver, las matrices triangulares son utilizadas en análisis numérico para resolver sistemas de ecuaciones lineales, calcular inversas y determinantes de matrices. El método de descomposición LU permite descomponer cualquier matriz invertible como producto de una matriz triangular inferior L y una superior U. Una matriz cuadrada de orden n se dice que es triangular superior si es de la forma: Análogamente, una matriz de la forma: } se dice que es una matriz triangular inferior. Se suelen emplear las letras U y L, respectivamente, ya que U es la inicial de "upper triangular matrix" y L de "lower triangular matrix", los nombres que reciben estas matrices en inglés. Propiedades de las matrices triangulares: · Una matriz triangular superior e inferior siempre diagonaliza en una base de vectores propios (matriz diagonal). · El producto de dos matrices triangulares superiores (inferiores) es una matriz triangular superior (inferior). · La transpuesta de una matriz triangular superior es una matriz triangular inferior y viceversa. · El determinante de una matriz triangular es el producto de los elementos de la diagonal. · Una matriz triangular es invertible si y solo si todos los elementos de la diagonal son no nulos. En este caso, la inversa de una matriz triangular superior (inferior) es otra matriz superior (inferior). · Los valores propios de una matriz triangular son los elementos de la diagonal principal. Rango de una matriz: El rango de una matriz es el número máximo de columnas (filas respectivamente) que son linealmente independientes. El rango fila y el rango columna siempre son iguales: este número es llamado simplemente rango de A (prueba más abajo). Comúnmente se expresa como rg(A). El número de columnas independientes de una matriz A de m filas y n columnas es igual a la dimensión del espacio columna de A. También la dimensión del espacio fila determina el rango. El rango de A será, por tanto, un número no negativo, menor o igual que el mínimo entre m y n: Calculo del rango Consideremos la matriz A = (aij): 1. El rango de la matriz A coincide con el de la matriz A' que se obtiene suprimiendo en la matriz A todas la líneas (filas o columnas) cuyas entradas estén sólo formadas por ceros, es decir, que sean nulas. 2. Consideremos la matriz:A1 = (a11, a12, ..., a1N) y supongamos que Entonces: Rango (A) ³ Rango(A 1) = 1 3. Añadimos filas de la matriz A a la matriz A1 hasta encontrar una matriz que cumpla: Tal que posea un menor no nulo de la forma: Por consiguiente, Rango (A) ³ rango(A 2) = 2. Si esto no hubiese sido posible, entonces: Rango (A) = 1. Supongamos que rango (A) ³ rango (A2) y que i = 2 y j = 2. 4. Añadimos filas a la matriz A2 hasta encontrar una matriz que cumpla: de forma que posea un menor de orden tres de la forma: Entonces: Rango (A) ³ rango (A2) = 3. En caso de no haber sido posible encontrar dicho menor, entonces: Rango (A) = rango (A2) = 2. Suponiendo que rango (A) ³ rango (A3) y que i = 3 y j = 3, se procedería como en los casos anteriores, y así sucesivamente hasta agotar todas las filas de la matriz A. Ejemplos: a) Sea la matriz A una matriz de orden tres. Hallar el rango (A). Como A es una matriz cuadrada de orden tres, como máximo el rango (A) puede valer tres. Calcularemos primero el determinante o determinantes de las submatrices de orden dos de A. Así pues Ya que el resultado es cero, probaremos con todas las submatrices de A hasta encontrar una cuyo determinante no sea cero. Si no encontramos ninguna, el rango (A) = 1. Puesto que el resultado de calcular el determinante de esta submatriz de A no es nulo, podemos afirmar de momento que el rango (A) = 2. Añadimos ahora una columna y una fila más para ver si el rango puede ser tres: Dado que el determinante de A no es nulo y a su vez es de orden tres, el rango (A) = 3. No necesariamente para poder calcular el rango de una matriz, ésta tiene que ser cuadrada. Así, en el siguiente ejemplo: b) Calcular el rango de la matriz B de orden 3 ´ 4. Como hay una determinante de orden dos no nulo, el rango de la matriz B es mayor o igual que 2. Calculamos a continuación los determinantes de orden superior: Probamos con un segundo determinante de orden tres: Así pues, como hay un determinante de orden tres que no es nulo, el rango (B) = 3. Un rango mayor que 3 no se puede hallar, ya que no se puede formar un determinante de orden Recuérdese que para poder calcular el determinante de una matriz o de una submatriz, éstas tienen que ser cuadradas. Sistema de ecuaciones lineales: La matriz ampliada M de un sistema de m ecuaciones con n incógnitas es la siguiente: Cada fila de M corresponde a una ecuación del sistema y cada columna a los coeficientes de una incógnita, excepto la última, que corresponde a las constantes del sistema. Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada, específicamente, reduciéndola a forma escalonada mediante el proceso de Gauss. Método de Gauss Para resolver sistemas de ecuaciones lineales, se aplica el método de Gauss. Este proceso se ilustra en el siguiente ejemplo. Ejemplo: Sea el sistema, Su matriz ampliada asociada es Ahora resolvemos por el método de Gauss sabiendo que la primera columna corresponde a los coeficientes de la x, la segunda a los de la y, la tercera a los de la z y la cuarta a los términos independientes: De este modo, el sistema tiene la solución única x = 2, y = -1, z = 3. Conclusiones: · En la operaciones de los determinantes pudimos llegar a la conclusión que podemos trabajar sobre la matriz al obtener el determinante para que nuestra resolución sea mucho más rápida y haciendo que el resultado de la misma no sea alterado de alguna forma. · Las diferentes formas de resolución nos llevó a un enfoque mucho más amplio de la resolución del determinante de una matriz, ya que cada una de ellas podía ser utilizadas en las otras, ya que en el método de cofactores se usa mucho la resolución del determinante de las matrices, las permutaciones cuando queremos transformar una matriz a una triangular superior o inferior para la resolución del determinante por medio del producto de la diagonal. · En el punto de las aplicaciones se pudo ver formas mucho más simples que podemos usar para la resolución de la inversa, la adjunta y sistemas de ecuaciones lineales. Espacios Vectoriales Definición.- Sea un conjunto no vacío, sea un cuerpo en el cual estén definidas las operaciones de Suma y Producto. Se dirá que es un Espacio Vectorial sobre , si está provisto de las 2 operaciones siguientes Suma: : 2 operaciones siguientes: uct Suma y Producto Y se cumplen las propiedades: A1) Conmutativa: A2) Asociativa: A3) Elemento Neutro: A4) Dado Notación: Producto por escalar: P1) Elemento Neutro: P2) Distributividad: P3) Asociatividad: Si en el conjunto se cumplen las propiedades mencionadas anteriormente, se dirá que es un Espacio Vectorial. Notación.- Espacio Vectorial. Ejemplo: Sea . Sean Afirmación: es un Espacio Vectorial. Sub-Espacios Vectoriales Definición.- Sea 𝕍 un Espacio Vectorial, y sea . Se dice que es un Sub-Espacio Vectorial de , si es un Espacio Vectorial. Teorema: Sea 𝕍 un Espacio Vectorial, y sea . 𝕎 será un Sub-Espacio Vectorial, si, y sólo si cumple con las siguientes propiedades: 1. 2. Si Ejemplo: · Sea el Espacio Vectorial. Sea 𝕎 Sub-Espacio Vectorial de . · Sea el Espacio Vectorial. Sea 𝕎 Sub-Espacio Vectorial de . Observación: Nota: A se le conoce como Sub-Espacio Trivial de 𝕍. A todos los Sub-Espacios de 𝕍 que no sean ni 𝕍, se les llama Sub-Espacios Propios. Conjunto Generador de un Espacio Vectorial Definición.- Sea 𝕍 un Espacio Vectorial, se dice que el conjunto de vectores genera 𝕍, si para todo , tal de 𝕍. Ejemplos: 1) es un conjunto generador de . 2) es un conjunto generador de . Espacio Generado por un conjunto de vectores Definición.- Sean vectores de un Espacio Vectorial 𝕍, se define: Se dirá que el Espacio generado por es el conjunto de combinaciones lineales de . Teorema: Sean vectores de un Espacio Vectorial 𝕍: es un Sub-Espacio Vectorial de 𝕍. Ejemplo: Hallar el espacio generado por los vectores y . Solución: Buscamos hallar 𝕎, el cual es el espacio generado por Sustituyendo (2) y (3) en (1): El espacio generado por y es: que viene a ser un plano en que pasa por el origen. Por teorema, 𝕎 es un Sub-Espacio Vectorial de . (Sub-Espacio Propio) Bases y Dimensión de un Espacio Vectorial Definición.- Sea 𝕍 un Espacio Vectorial, se dice que el conjunto de vectores es base del Espacio Vectorial 𝕍, si: 1. 2. es linealmente independiente. Definición.- Sea 𝕍 un Espacio Vectorial, cuya base tiene vectores, se dice que 𝕍 es un Espacio Vectorial de dimensión . Notación.- Ejemplo: Hallar una base y la dimensión del siguiente Sub-Espacio Vectorial: Solución: Sea Como es un Sub-Espacio Vectorial: Propiedades: Sean ; donde 𝕍 es un Espacio Vectorial. 1) Si . 2) es un Sub-Espacio Vectorial. 3) Si 𝕎 es un Sub-Espacio de . 4) Si . Nota: es el menor Sub-Espacio Vectorial que contiene a . Ejemplo: Sean es un Espacio Vectorial. · . · es un Sub-Espacio Vectorial. Ejemplo: Sea un Espacio Vectorial. Vectores Canónicos: son Linealmente Independientes. Solución: Sea son Suma de Espacios Vectoriales Sean Sub-Espacios Vectoriales de un Espacio Vectorial 𝕍. La suma de los Sub-Espacios se define del siguiente modo: Observaciones: 1) En general , pues no siempre es un Sub-Espacio. 2) 3) 4) Si 𝕎 es un Sub-Espacio de 𝕍, tal que , entonces . 5) es el menor Sub-Espacio que contiene a . 6) es un Sub-Espacio Vectorial. Suma Directa de Espacios Vectoriales Sean Sub-Espacios Vectoriales de un Espacio Vectorial 𝕍. Si , se dice que es la suma directa de . Teorema: Si son dos Sub-Espaciosde 𝕍, y la dimensión de 𝕍 es finita, entonces: · · Observación: Si Ejemplo: Sea 𝕏 un Sub-Espacio del Espacio Vectorial . Muestre un Sub-Espacio Vectorial 𝕐 y ℤ, tal que . Solución: · Sea · Conclusión Un espacio vectorial es una estructura algebraica. Muchos conjuntos tienen esta estructura, con las operaciones usuales. Por ejemplo, los pares ordenados de números reales, las ternas, los polinomios, los vectores libres del plano, los del espacio, las sucesiones, las matrices, etc. Cuando se estudian los espacios vectoriales, se obtienen conclusiones comunes a todos estos conjuntos. Transformaciones Lineales Sean dos espacios vectoriales sobre el cuerpo . Una transformación lineal es una correspondencia que a cada vector le asigna un vector tal que, para cualquier , se cumple la relación · La particularidad de una transformación lineal es que preserva las operaciones de suma de vectores y producto de un escalar por un vector. a.- (decimos que “extrae” al escalar α) b.- (T preserva las operaciones suma de los espacios vectoriales) Ejemplo 1: Sea T una función definida por: Comprobar que T ∈ L( IR , IR ) . Solución T extrae al escalar: T preserva la suma: Por lo tanto . Relación entre transformaciones y matrices Cada matriz en determina una única transformación en , e inversamente, cada transformación lineal en ) se puede asociar a una matriz , única si fijamos una base para cada espacio. Sea A una matriz de tamaño m × n. A la matriz A le asociamos la transformación lineal: TA : tal que Claramente TA es lineal. En efecto: De lo anterior podemos concluir que toda matriz de tamaño m × n puede verse como una transformación lineal de . Ejemplo 2: Hallar la matriz asociada a la transformación lineal T: definida por Así obtenemos que es la matriz asociada a T. Observaciones: (i) Una consecuencia directa de la propiedad ( b) de la definición de t. l. es que T hace corresponder el cero de V con el cero de W. En efecto, ). Luego . Nótese que usamos el símbolo para referirnos al cero de V y para el de W. ( ii) Las propiedades ( a) y ( b) definitorias de una t. l. , se pueden resumir en una sola como se puso al principio: ⇐⇒ Núcleo e Imagen Sea T ∈ L( V, W) : a.- El conjunto se l lama núcleo de T. b.- El conjunto se llama imagen de V bajo T, o simplemente imagen de T. Teorema 1. Sea T ∈ L( V, W) .El Nuc ( T) y la Img ( T) son subespacios de V y W respectivamente. Ejemplo 3: Sea la t.l. T: definido por la regla a) Hallar la IMAGEN de T b) Hallar el NUCLEO de T Solucion: a) La Imagen de T esta formado por vectores de la forma (r, s, t) tal que Haciendo mas sencilla la matriz aumentada: La Imagen de T es que geométricamente es un plano que pasa por el origen. b) El núcleo de T se obtiene: Haciendo más sencilla la matriz aumentada: Haciendo : Entonces el vector solución es El nucleo de T es Representa la ecuación paramétrica de una recta que pasa por el origen de coordenadas. Teorema 2. Sea T ∈ L( V, W) y V de dimensión finita, entonces Matriz de una transformación lineal La matriz de T (o representación matricial) en el par de bases B1 y B2 se define por: [ Teorema 3. una base de V , y una base de W. Si es la matriz de T en las bases B1 y B2, entonces = . Ejemplo 4: Considere la t.l. tal que Y sean , las bases canónicas de respectivamente. Además una base de y base de . Encuentre las matrices: y . Solución: Resulta fácil ver que: Luego Luego: Inyectividad, Sobreyectividad y Biyectividad Sea , una función del conjunto A al conjunto B. a) Se dice que f es inyectiva si todo elemento tiene a lo más una pre imagen ), o equivalentemente si: b) f es sobreyectiva si todo elemento z ∈ B es imagen de algún , o sea,. Equivalentemente, f es sobreyectiva si la ecuación en la variable x: tiene solución c) Cuando f es inyectiva y sobreyectiva se dice que f es biyectiva. Ejemplo 5: Sea T ∈ L() definida por . Es T sobreyectiva? Solución: T es sobreyectiva si tiene solución Resolviendo el sistema se tiene que . Luego para cada (a, b, c) ∈ el sistema tiene solución por lo tanto es sobreyectiva. Verificar la inyectividad de una transformación lineal a partir de la definición, aunque no es en extremo difícil, es más difícil si se emplea el teorema siguiente. Teorema 4. Sea T ∈ L(V,W). Se tiene que: T es inyectiva Teorema 5. Sea T ∈ L(V,W) (a) Si entonces (b) Si T es inyectiva y son l.i. entonces son l.i. En particular: Conclusión Se han visto de forma más detallada y con más exactitud los teoremas y propiedades que hilan todos los temas propuestos por este trabajo y se ha llegado a la conclusión de que todos los temas están relacionados en cierta forma ya que en varios de estos se necesita recurrir a las propiedades que se han visto en temas anteriores. Autovalores y autovectores • Definición de autovalor: λ ∈ R (o a C, aunque no lo consideraremos) es un autovalor de una matriz A, cuadrada, n × n, si existe un vector • A se le llama autovector asociado al autovalor λ. También se utilizan los nombres valor propio y vector propio, respectivamente, para autovalor y autovector. Observaciones: 1. Si ⇒ ⇒…. Por tanto, para determinar cómo actúa resulta útil conocer λ y , pues el estudio de es mucho más sencillo. 2. Si es un autovector asociado a λ, entonces es otro autovector asociado a λ. En efecto: si Diagonalización: Casos Una matriz cuadrada A, de orden n, se dice que es diagonalizable si existe una matriz invertible P, de orden n, y una matriz diagonal, tal que . Otra manera de decirlo es: Una matriz cuadrada A es diagonalizable si es semejante a una matriz diagonal. Caso 1. Cuando todos los autovalores son distintos y pertenecen a los reales: Si una matriz cuadrada A, de orden n, tiene n autovalores reales distintos diferentes de cero, entonces el conjunto {} es linealmente independiente. Luego, la matriz A es diagonalizable. Puede observarse que si {} son L.i ⇒ la matriz P={} es inversible. Luego puede escribise que . Ejemplos: 1. Diagonalización de Autovalores: λ = 3; λ = 1; λ = 4 . Los tres autovalores son simples ⇒ la matriz es diagonalizable. • Si λ = 3, • Si λ = 1, • Si λ = 4, La matriz 2. Diagonalización de Autovalores: λ = ; λ = ; λ = . Los tres autovalores son simples ⇒ la matriz es diagonalizable. • Si λ =, • Si λ = , • Si λ = , La matriz Caso 2. Cuando hay autovalores repetidos (multiplicidad) y pertenecen a los reales: Si una matriz cuadrada A, de orden n, es diagonalizable si y sólo si todos sus autovalores son reales y diferentes de cero, además, la multiplicidad geometrica de cada uno coincide con su multiplicidad algebraica. La multiplicidad algebraica es la del autovalor: solución doble, triple… de la ecuación La multiplicidad geometrica es la de los autovectores respectivos: la dimension del espacio vectorial solucion del autosistema Ejemplos: 3. Diagonalización de Autovalores: λ = 3; multiplicidad=2 λ = 5; multiplicidad=1 • Si λ = 3, • Si λ =5, La matriz 4. Diagonalización de Autovalores: λ = -2; multiplicidad=2 λ = 4; multiplicidad=1 • Si λ = -2, • Si λ =4, Caso 3. Cuando hay autovalores que pertenecen a los complejos: Si una matriz cuadrada A, de orden n, tiene n autovalores complejos distintos diferentes de cero, entonces el conjunto {} es linealmente independiente. Luego, la matriz A es diagonalizable. Puede observarse que si {} son L.i ⇒ la matrizP={} es inversible. Luego puede escribise que . Ejemplos: 5. Diagonalización de Autovalores: λ = ; λ = ; λ = . Los autovalores son simples ⇒ la matriz es diagonalizable. • Si λ = , • Si λ = , • Si λ = , La matriz 6. Diagonalización de Autovalores: λ =; λ =; λ = . Los autovalores son simples ⇒ la matriz es diagonalizable. • Si λ = , • Si λ = , • Si λ =, La matriz Caso 4. Cuando hay autovalores que son iguales a cero: 7. Diagonalización de Autovalores: λ = 0; λ = 3; λ = 17 . Los tres autovalores son simples ⇒ la matriz es diagonalizable. • Si λ = 0, • Si λ = 3, • Si λ = 17, La matriz Conclusión El objetivo es determinar qué matrices son diagonalizables y, de acuerdo a esto, hallar P y D. Espacios con Producto Interno Proceso de Ortogonalización de Gram-Schmidt Teorema: Sea V un espacio con producto interno y sean v1,…,vn vectores independientes cualesquiera de V. Entonces se pueden construir vectores ortogonales c en V tales que para cada k=1,2,…,n el conjunto S={µ1,…,µk} sea una base del subespacio generado por v1,…,vk. Demostración: La construcción de los vectores ortogonales µ1,…,µk es por un algoritmo conocido con el nombre de proceso de ortonormalización de Gram Schmidt. PRIMERO: asumimos que µ1= v1. SEGUNDO: Supongamos que, por inducción, los vectores µ1,…,µm (1≤m≤n) hayan sido elegidos de modo que para cada k {µ1,…,µk} , 1≤k≤m es una base ortogonal para el subespacio de V que es generado por v1,…,vk. El siguiente vector, después de µm es: ………(1) Vm+1 µm+1 µk En (1) µm+1≠0. De ser µm+1=0, se tendría que vm+1 es combinación lineal de µ1,…,µm. Además se cumple que: =0, si 1≤j≤m. Probemos: µm+1 ……(2) En (1) multiplicar, escalarmente, por el vector µj 0 …………………(3) Sustituir (3) en (2): 0 Por tanto, {µ1,…,µm+1} es un conjunto ortogonal que consta de m+1 vectores no nulos en el subespacio generado por v1,…,vm+1. Por el teorema que demuestra que los conjuntos ortonormales son linealmente independientes, {µ1,…,µm+1} es una base para el subespacio generado por v1,…,vm+1. De esta manera los vectores µ1,…,µn pueden construirse unos después de otros de acuerdo al algoritmo dado en (1). En particular, si se tiene 4 vectores {v1,v2,v3,v4} los vectores ortogonales {µ1,µ2,µ3,µ4} se obtienen del siguiente modo: EJEMPLOS: Usar el proceso de Gram Schmidt para transformar la base B del espacio euclidiano R3 en una base ortogonal. Solución: Luego es una base ortogonal de R3. Solución: Luego es una base ortogonal de R3. Conclusión Este procedimiento nos ayuda inicialmente a poder hallar una base ortogonal, pero al hallar también esta base nos bastara solo el hecho de dividir cada vector entre su norma para hallar una base ortonormal en lo que se basa principalmente, y así hacer de una manera más fácil la resolución de este capítulo de Algebra Lineal. 61
Compartir