Logo Studenta

316814985-Algebra-Lineal

¡Este material tiene más páginas!

Vista previa del material en texto

Universidad Nacional Autónoma de México
Facultad de Estudios Superiores
Plantel Aragón
INGENIERIA INDUSTRIAL
CLASE: algebra lineal
Trabajo 
PRACTICA 
GRUPO:8105
NOMBRE DEL PROFESOR: ALBERTO HIGUERA GARCIA
NOMBRE DEL ALUMNO: CORTES HERNANDEZ RICARDO 
FECHA DE ENTREGA: SEPTIEMBRE DEL 2021
Índice
Matrices y Determinantes	2
Producto de Matrices	4
Determinante de una Matriz	6
Matrices Especiales	12
Rango de una Matriz	30
Sistema de Ecuaciones Lineales	35
Conclusiones	37
Espacios Vectoriales	38
Sub-Espacios Vectoriales	39
Conjunto Generador de un Espacio Vectorial	40
Espacio Generado por un conjunto de vectores	40
Bases y Dimensión de un Espacio Vectorial	41
Suma de Espacios Vectoriales	43
Suma Directa de Espacios Vectoriales	44
Conclusión	45
Transformaciones Lineales	46
Relación entre Transformaciones y Matrices	47
Núcleo e Imagen	48
Matriz de una Transformación Lineal	50
Inyectividad, Sobreyectividad y Biyectividad	52
Conclusión	53
Autovalores y Autovectores	54
Diagonalización: Casos	54
Conclusión	68
Espacios con Producto Interno	69
Proceso de Ortogonalización de Gram-Schimdt	69
Conclusión	72
Matrices y Determinantes
Sea un cuerpo (, definimos el siguiente conjunto:
Knxm = { [aij] / aij ∈ K ⩝ i ∈ {1;2;3;…..n} ; ⩝ j ∈ {1;2;3;…..n} }
. Notación:
[aij]nxm = 
Suma (adición):
· Knxm x Knxm → Knxm
([aij] , [bij]) → [aij] + [bij] = [aij + bij ]
Ejemplo:
 
A= B= A+B = 
Propiedades:
· Conmutativa 
[aij] + [bij] = [bij] + [aij]
 
· Asociativa
[aij] + ([bij] + [cij]) = ([aij] + [bij] )+ [cij]
· Existencia del elemento neutro
 [aij] + θ = [aij] , θ=[ θ ij] , θ ij =0 
· Dado [aij] ∈ Knxm , existe : B= [-aij]
Tal que [aij] + B = θ
Producto:
Knxp x Kpxm → Knxm
([aij] , [bij]) → [aij] [bij] = [cij]
Donde: 
[cij]== (ai1+……+ aip) (b1j+……+ bpj)= ai1 b1j + ai2 b2j +……+ aip bpj
Propiedades:
· A(BC) =(AB)C ; A ∈ Knxp , B ∈ Kpxq , C ∈ Kqxm 
Obs: no se cumple la conmutatividad 
Obs: n=m
 → Knxn es llamado conjunto de matrices cuadradas
 → existe neutro multiplicativo
En el conjunto Knxn , existe elemento neutro multiplicativo:
Es decir: I =
 I = [ð] ; ð ij = { 1 , i=j ; 0 , i≠j }
	 A I = I A = A
→ ⩝ A ∈ Knxn 
 
 Obs:
 Sea A ∈ R2X2, A ≠ θ ¿Existe A-1?
 A = ≠ θ ; A.B = I entonces B = A-1
 → .= entonces no tiene A-1
Producto de matrices:
Determinante de una Matriz
Definición.- Sea la matriz cuadrada de orden , llamaremos determinante de la matriz , al número real que está relacionado con los elementos de la matriz.
Notación.- indican el determinante de la matriz cuadrada A.
En general:
Donde: es submatriz de eliminando la fila y la -ésima columna.
Propiedades de las determinantes:
1. El determinante de una matriz cuadrada coincide con el determinante de su traspuesta, es decir: 
2. Si intercambiamos dos filas o dos columnas de una matriz cuadrada, su determinante cambia de signo aunque son iguales en valor absoluto.
3. Si  multiplicamos todos los elementos de una fila o columna de una matriz cuadrada por un número  k, su determinante queda multiplicado por dicho número.
Como generalización de esta propiedad, si multiplicamos todos los elementos de una matriz cuadrada de orden  n  por un número  k, su determinante queda multiplicado por  kn, es decir: Det (k. A) = kn. Det (A).
4. El determinante del producto de dos matrices cuadradas del mismo orden es igual al producto de los determinantes de dichas matrices: Det (A. B) = Det (A)* Det (B).
5. Si una matriz cuadrada tiene todos los elementos de una fila o columna nulos, su determinante es cero.
6. Si una matriz cuadrada tiene dos filas o dos columnas iguales su determinante es cero.
7. Si una matriz cuadrada tiene dos filas o columnas proporcionales su determinante es cero.
8. Si todos los elementos de una fila o columna de una matriz cuadrada se descomponen en dos sumandos, entonces su determinante es igual a la suma de dos determinantes que tienen en dicha fila o columna el primero y el segundo sumando respectivamente, siendo los restantes elementos iguales a los del determinante inicial.
9. Si una fila o columna de una matriz cuadrada es combinación lineal de dos o más de las restantes filas o columnas, su determinante es cero.
10. Si a una fila o columna de una matriz cuadrada se le suma otra paralela a ella, su determinante no varía.
11. Si a una fila o columna de una matriz cuadrada se le suma otra paralela a ella multiplicada por un número, su determinante no varía.
12. En una matriz A no singular (Det ≠ 0) se cumple:
 Det(A) = 
Matrices Especiales
· Matriz Cuadrada 
Una matriz de n por m elementos, es una matriz cuadrada si el número de filas es igual al número columnas, es decir, n = m y se dice, entonces que la matriz es de orden n:
Propiedades:
Toda matriz cuadrada se puede descomponer en la suma de una matriz simétrica y una matriz antisimétrica.
Si A y B son matrices del mismo orden, entonces se pueden sumar entre sí. Los productos de matrices son válidos en ambos sentidos, AB y BA. Además, surgen los conceptos de determinante y traza solo aplicables a matrices cuadradas.
Una matriz cuadrada A de orden n es singular si su determinante es nulo. En tal caso se dice que dicha matriz no tiene inversa.
· Matriz nula
En matemáticas, en particular en álgebra lineal, una matriz cero o matriz nula es una matriz con todos sus elementos iguales a cero. Algunos ejemplos de matrices nulas son:
Por lo tanto, una matriz nula de orden mxn definida sobre un anillo K asume la forma:
Una matriz cero es, al mismo tiempo, matriz simétrica, matriz antisimétrica, matriz nilpotente y matriz singular.
· Matriz Singular
 Es aquella cuya determinante es 0 y por lo tanto no tiene inversa.
· Matriz no singular
Es aquella cuya determinante es diferente de cero, también es llamada matriz invertible.
· Matriz identidad
Llamamos matriz identidad a la matriz cuadrada (mismo número de filas que de columnas) formada por unos en la diagonal y ceros en las demás entradas (posiciones). La representamos por In donde n es la dimensión de la matriz.
Propiedades:
· Es el neutro del producto de matrices. Es decir, para toda matriz A de dimensión m x n,
 
· Es idempotente, es decir, sus potencias son ella misma
· Es regular y su inversa es ella misma.
· Es una matriz permutación.
· Sólo tiene un autovalor (valor propio), que es 1, con multiplicidad algebraica la misma que la dimensión de la matriz.
 Notaciones habituales:
 
· Matriz Diagonal
Todos los elementos son nulos excepto los de la diagonal, esto es, los elementos que tienen el mismo número de fila que de columna.
Una matriz A diagonal de dimensión m x n que tiene por elementos de la diagonal a los elementos del vector v se le denota por
Propiedades:
· Son un caso particular de las matrices triangulares.
· La matriz traspuesta de una matriz diagonal de dimensión m x n es la matriz diagonal de dimensión n x m con la misma diagonal.
· En las matrices cuadradas, el determinante es el producto de los elementos de la diagonal:
con lo que son regulares si, y sólo si, todos los elementos de la diagonal son distintos de 0. En tal caso :
· Potencias (para las cuadradas)
· Producto de matrices diagonales: Sean las matrices A y B diagonales de dimensiones respectivas m x n y n x t, su producto es una matriz diagonal de dimensión m x t
· Los autovalores (valores propios) de las matrices diagonales cuadradas son los elementos de la diagonal.
· Matrices Triangulares
Distinguimos dos tipos:
· Triangular superior: todos los elementos por debajo de la diagonal de la matriz son 0, es decir,
· Triangular inferior: todos los elementos por arriba de la diagonalde la matriz son 0, es decir,
	Ejemplos
	Triangular superior
	Triangular inferior
	
	
Propiedades :
· La matriz traspuesta de una triangular superior es triangular inferior y viceversa.
· Si la matriz es cuadrada, su determinante es el producto de los elementos de la diagonal
Por tanto, es regular si, y sólo si, los elementos de la diagonal son distintos de 0. En tal caso,
· La inversa de una matriz triangular superior (inferior) es una matriz triangular superior (inferior).
· El producto de matrices triangulares superiores (inferiores) es una matriz triangular superior (inferior).
· Los autovalores (valores propios) de una matriz cuadrada triangular son los elementos de la diagonal.
· Matriz Transpuesta 
La matriz traspuesta de una matriz A de dimensión m x n es una matriz de dimensión n x m que tiene por columnas a las filas de A. Se denota como AT (o A' si la matriz es real).
	Ejemplos
	
Propiedades:
· Traspuesta de la traspuesta
· Traspuesta de la suma
· Traspuesta del producto
· Una matriz es igual que su traspuesta si, y sólo si, es simétrica
· El determinante de una matriz regular es igual al de su traspuesta
· Matriz Adjunta 
Sea A una matriz de cuadrada de dimensión n
se define su matriz adjunta como
donde Ai , j es la matriz que resulta al quitar la fila i y columna j a A.
Al elemento ad i , j se le denomina ( i , j )- cofactor (o adjunto) de la matriz A.
Propiedades:
· Adjunta de la identidad
· Adjunta de la traspuesta
· Adjunta del producto
· Si A es de dimensión n y k un escalar
· Si A es regular, su inversa es
	Ejemplo         
	
· Matriz Simétrica (Sn)
Una matriz A cuadrada es simétrica si es igual a su traspuesta. Es decir,
	Ejemplo
	
Propiedades:
· La inversa de una matriz simétrica regular es simétrica.
· La adjunta de una simétrica es simétrica.
· La suma de simétricas es simétrica. El producto lo es si, y sólo si, también es conmutativo.
· Los autovalores (valores propios) de una matriz cuadrada, real y simétrica son reales.
· Autovectores (vectores propios) de autovalores distintos de una matriz cuadrada y real son ortogonales.
· Una matriz cuadrada y real, A, es simétrica si, y sólo si, es diagonalizable mediante una matriz de paso ortogonal, Q. Es decir,
· Matriz Antisimétrica (ASn)
Una matriz cuadrada A es antisimétrica si es igual a la opuesta de su adjunta, es decir
Teorema:
Sea A ∈ Rnxn → existe B ∈ Sn , C ∈ ASn 
Tal que → A=B+C 
· Matriz nilpotente: (1≤k≤n)
 Ak = 0 A ≠ 0; Ak-1≠ 0
· Matriz idempotente:
 A2 = A 
· Matriz involutiva:
 A2 = i
· Matriz hermitiana:
 At = A A ∈ Cnxn
· Matriz antihermitiana
 At = A A ∈ Cnxn
· Matriz ortogonal
At = A-1
· Matriz inversa
En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que:
 
,
Donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.
Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es nulo.
Dada una matriz de 2x2 con determinante no nulo:
Está definida siempre y cuando  . Así por ejemplo la inversa de la matriz
 Ya que  
 Dada una matriz de 3x3 con determinante no nulo:
 
Propiedades de la matriz inversa:
· La inversa de una matriz, si existe, es única.
· La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:
· Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
· Y, evidentemente:
 
· Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
Donde  es el determinante de A y  es la matriz de adjuntos de A.
Método de Gauss Jordan para encontrar la matriz inversa:
Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad, simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:
se construiría
y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos
multiplicamos la segunda fila por -1 y la intercambiamos con la primera
ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo
ahora usamos el pivote de la segunda fila
y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente
El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene invers
· Matriz triangular 
En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más fáciles de resolver, las matrices triangulares son utilizadas en análisis numérico para resolver sistemas de ecuaciones lineales, calcular inversas y determinantes de matrices. El método de descomposición LU permite descomponer cualquier matriz invertible como producto de una matriz triangular inferior L y una superior U.
Una matriz cuadrada de orden n se dice que es triangular superior si es de la forma:
Análogamente, una matriz de la forma:
}
se dice que es una matriz triangular inferior.
Se suelen emplear las letras U y L, respectivamente, ya que U es la inicial de "upper triangular matrix" y L de "lower triangular matrix", los nombres que reciben estas matrices en inglés.
Propiedades de las matrices triangulares:
· Una matriz triangular superior e inferior siempre diagonaliza en una base de vectores propios (matriz diagonal).
· El producto de dos matrices triangulares superiores (inferiores) es una matriz triangular superior (inferior).
· La transpuesta de una matriz triangular superior es una matriz triangular inferior y viceversa.
· El determinante de una matriz triangular es el producto de los elementos de la diagonal.
· Una matriz triangular es invertible si y solo si todos los elementos de la diagonal son no nulos. En este caso, la inversa de una matriz triangular superior (inferior) es otra matriz superior (inferior).
· Los valores propios de una matriz triangular son los elementos de la diagonal principal.
Rango de una matriz:
 El rango de una matriz es el número máximo de columnas (filas respectivamente) que son linealmente independientes. El rango fila y el rango columna siempre son iguales: este número es llamado simplemente rango de A (prueba más abajo). Comúnmente se expresa como rg(A).
El número de columnas independientes de una matriz A de m filas y n columnas es igual a la dimensión del espacio columna de A. También la dimensión del espacio fila determina el rango. El rango de A será, por tanto, un número no negativo, menor o igual que el mínimo entre m y n:
Calculo del rango 
Consideremos la matriz A = (aij):
 
 
1. El rango de la matriz A coincide con el de la matriz A' que se obtiene suprimiendo en la matriz A todas la líneas (filas o columnas) cuyas entradas estén sólo formadas por ceros, es decir, que sean nulas.
 
2. Consideremos la matriz:A1 = (a11, a12, ..., a1N)
 
 y supongamos que                                             
                                                                   
       
Entonces:  
 Rango (A) ³ Rango(A 1) = 1     
 
3. Añadimos filas de la matriz A a la matriz A1 hasta encontrar una matriz que cumpla:
 
Tal que posea un menor no nulo de la forma:
 
              
Por consiguiente,
 
Rango (A) ³ rango(A 2) = 2.
 
Si esto no hubiese sido posible, entonces:
 
Rango (A) = 1.
 
Supongamos que rango (A) ³ rango (A2) y que i = 2 y j = 2.
 
4. Añadimos filas a la matriz A2 hasta encontrar una matriz que cumpla:
 
de forma que posea un menor de orden tres de la forma:
 
Entonces:
Rango (A) ³ rango (A2) = 3.
 
En caso de no haber sido posible encontrar dicho menor, entonces:
Rango (A) = rango (A2) = 2.
 
Suponiendo que rango (A) ³ rango (A3) y que i = 3 y j = 3, se procedería como en los casos anteriores, y así sucesivamente hasta agotar todas las filas de la matriz A.
 
Ejemplos:
 
a) Sea la matriz A una matriz de orden tres. Hallar el rango (A).
 
Como A es una matriz cuadrada de orden tres, como máximo el rango (A) puede valer tres. Calcularemos primero el determinante o determinantes de las submatrices de orden dos de A. Así pues
 
  
 
Ya que el resultado es cero, probaremos con todas las submatrices de A hasta encontrar una cuyo determinante no sea cero. Si no encontramos ninguna, el rango (A) = 1.
 
  
Puesto que el resultado de calcular el determinante de esta submatriz de A no es nulo, podemos afirmar de momento que el rango (A) = 2.
 
Añadimos ahora una columna y una fila más para ver si el rango puede ser tres:
 
 
Dado que el determinante de A no es nulo y a su vez es de orden tres, el rango
(A) = 3.
 
No necesariamente para poder calcular el rango de una matriz, ésta tiene que ser cuadrada. Así, en el siguiente ejemplo:
 
b) Calcular el rango de la matriz B de orden 3 ´ 4.
 
 
 
 
Como hay una determinante de orden dos no nulo, el rango de la matriz B es mayor o igual que 2. Calculamos a continuación los determinantes de orden superior:
 
 
Probamos con un segundo determinante de orden tres:
 
 
Así pues, como hay un determinante de orden tres que no es nulo, el rango (B) = 3.
 
Un rango mayor que 3 no se puede hallar, ya que no se puede formar un determinante de orden 
Recuérdese que para poder calcular el determinante de una matriz o de una submatriz, éstas tienen que ser cuadradas.
Sistema de ecuaciones lineales:
La matriz ampliada M de un sistema de m ecuaciones con n incógnitas es la siguiente:
 
 
Cada fila de M corresponde a una ecuación del sistema y cada columna a los coeficientes de una incógnita, excepto la última, que corresponde a las constantes del sistema.
 
Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada, específicamente, reduciéndola a forma escalonada mediante el proceso de Gauss.
 
Método de Gauss
 
Para resolver sistemas de ecuaciones lineales, se aplica el método de Gauss. Este proceso se ilustra en el siguiente ejemplo.
 
Ejemplo:
 
Sea el sistema,
 
 
Su matriz ampliada asociada es
 
 
Ahora resolvemos por el método de Gauss sabiendo que la primera columna corresponde a los coeficientes de la x, la segunda a los de la y, la tercera a los de la z y la cuarta a los términos independientes: 
    
    
 
De este modo, el sistema tiene la solución única
 
x = 2,  y = -1,  z = 3.
Conclusiones:
· En la operaciones de los determinantes pudimos llegar a la conclusión que podemos trabajar sobre la matriz al obtener el determinante para que nuestra resolución sea mucho más rápida y haciendo que el resultado de la misma no sea alterado de alguna forma.
· Las diferentes formas de resolución nos llevó a un enfoque mucho más amplio de la resolución del determinante de una matriz, ya que cada una de ellas podía ser utilizadas en las otras, ya que en el método de cofactores se usa mucho la resolución del determinante de las matrices, las permutaciones cuando queremos transformar una matriz a una triangular superior o inferior para la resolución del determinante por medio del producto de la diagonal.
· En el punto de las aplicaciones se pudo ver formas mucho más simples que podemos usar para la resolución de la inversa, la adjunta y sistemas de ecuaciones lineales.
Espacios Vectoriales
Definición.- Sea un conjunto no vacío, sea un cuerpo en el cual estén definidas las operaciones de Suma y Producto. Se dirá que es un Espacio Vectorial sobre , si está provisto de las 2 operaciones siguientes
Suma:
 
 : 2 operaciones siguientes:
uct Suma y Producto Y se cumplen las propiedades:
A1) Conmutativa: 
A2) Asociativa: 
A3) Elemento Neutro: 
A4) Dado Notación: 
Producto por escalar:
 
P1) Elemento Neutro: 
P2) Distributividad: 
P3) Asociatividad: 
Si en el conjunto se cumplen las propiedades mencionadas anteriormente, se dirá que es un Espacio Vectorial.
Notación.-
 Espacio Vectorial.
Ejemplo:
Sea . Sean 
 
 
Afirmación: es un Espacio Vectorial.
Sub-Espacios Vectoriales
Definición.- Sea 𝕍 un Espacio Vectorial, y sea . Se dice que es un Sub-Espacio Vectorial de , si es un Espacio Vectorial.
Teorema:
Sea 𝕍 un Espacio Vectorial, y sea . 𝕎 será un Sub-Espacio Vectorial, si, y sólo si cumple con las siguientes propiedades:
1. 
2. Si 
Ejemplo:
· Sea el Espacio Vectorial. Sea 𝕎 Sub-Espacio Vectorial de .
 
 
 
· Sea el Espacio Vectorial. Sea 𝕎 Sub-Espacio Vectorial de .
 
 
 
 
Observación:
Nota: A se le conoce como Sub-Espacio Trivial de 𝕍. A todos los Sub-Espacios de 𝕍 que no sean ni 𝕍, se les llama 
Sub-Espacios Propios.
Conjunto Generador de un Espacio Vectorial
Definición.- Sea 𝕍 un Espacio Vectorial, se dice que el conjunto de vectores genera 𝕍, si para todo , tal
de 𝕍.
Ejemplos:
1) es un conjunto generador de .
2) es un conjunto generador de .
Espacio Generado por un conjunto de vectores
Definición.- Sean vectores de un Espacio Vectorial 𝕍, se define:
Se dirá que el Espacio generado por es el conjunto de combinaciones lineales de .
Teorema:
Sean vectores de un Espacio Vectorial 𝕍:
 es un Sub-Espacio Vectorial de 𝕍. 
Ejemplo: 
Hallar el espacio generado por los vectores y .
Solución:
Buscamos hallar 𝕎, el cual es el espacio generado por 
Sustituyendo (2) y (3) en (1):
El espacio generado por y es: que viene a ser un plano en que pasa por el origen.
Por teorema, 𝕎 es un Sub-Espacio Vectorial de . (Sub-Espacio Propio)
Bases y Dimensión de un Espacio Vectorial
Definición.- Sea 𝕍 un Espacio Vectorial, se dice que el conjunto de vectores es base del Espacio Vectorial 𝕍, si:
1. 
2. es linealmente independiente.
Definición.- Sea 𝕍 un Espacio Vectorial, cuya base tiene vectores, se dice que 𝕍 es un Espacio Vectorial de dimensión .
Notación.-
Ejemplo: 
Hallar una base y la dimensión del siguiente Sub-Espacio Vectorial:
Solución:
Sea 
 
Como es un Sub-Espacio Vectorial:
Propiedades:
Sean ; donde 𝕍 es un Espacio Vectorial.
1) Si .
2) es un Sub-Espacio Vectorial.
3) Si 𝕎 es un Sub-Espacio de .
4) Si .
Nota: es el menor Sub-Espacio Vectorial que contiene a .
Ejemplo:
Sean es un Espacio Vectorial.
· .
· es un Sub-Espacio Vectorial.
Ejemplo:
Sea un Espacio Vectorial.
Vectores Canónicos:
 son Linealmente Independientes.
Solución:
Sea 
 son 
Suma de Espacios Vectoriales
Sean Sub-Espacios Vectoriales de un Espacio Vectorial 𝕍.
La suma de los Sub-Espacios se define del siguiente modo:
Observaciones:
1) En general , pues no siempre es un Sub-Espacio.
2) 
3) 
4) Si 𝕎 es un Sub-Espacio de 𝕍, tal que , entonces .
5) es el menor Sub-Espacio que contiene a .
6) es un Sub-Espacio Vectorial.
Suma Directa de Espacios Vectoriales
Sean Sub-Espacios Vectoriales de un Espacio Vectorial 𝕍. 
Si , se dice que es la suma directa de .
Teorema:
Si son dos Sub-Espaciosde 𝕍, y la dimensión de 𝕍 es finita, entonces:
· 
· 
Observación:
Si 
Ejemplo:
Sea 𝕏 un Sub-Espacio del Espacio Vectorial .
 
Muestre un Sub-Espacio Vectorial 𝕐 y ℤ, tal que .
Solución:
· 
Sea 
· 
Conclusión
Un espacio vectorial es una estructura algebraica. Muchos conjuntos tienen esta estructura, con las operaciones usuales. Por ejemplo, los pares ordenados de números reales, las ternas, los polinomios, los vectores libres del plano, los del espacio, las sucesiones, las matrices, etc. Cuando se estudian los espacios vectoriales, se obtienen conclusiones comunes a todos estos conjuntos.
Transformaciones Lineales
Sean dos espacios vectoriales sobre el cuerpo . Una transformación lineal es una correspondencia que a cada vector le asigna un vector tal que, para cualquier , se cumple la relación 
· La particularidad de una transformación lineal es que preserva las operaciones de suma de vectores y producto de un escalar por un vector.
a.-	(decimos que “extrae” al escalar α)
b.- (T preserva las operaciones suma
de los espacios vectoriales)
Ejemplo 1: Sea T una función definida por:
 
Comprobar que T ∈ L( IR , IR ) .
Solución
T extrae al escalar:
T preserva la suma:
Por lo tanto .
Relación entre transformaciones y matrices
Cada matriz en determina una única transformación en , e inversamente, cada transformación lineal en ) se puede asociar a una matriz , única si fijamos una base para cada espacio.
Sea A una matriz de tamaño m × n. A la matriz A le asociamos
la transformación lineal:
TA : tal que 	
Claramente TA es lineal. En efecto:
De lo anterior podemos concluir que toda matriz de tamaño m × n puede verse como una transformación lineal de .
Ejemplo 2: Hallar la matriz asociada a la transformación lineal T: definida por
Así obtenemos que es la matriz asociada a T.
Observaciones:
(i) Una consecuencia directa de la propiedad ( b) de la definición
de t. l. es que T hace corresponder el cero de V con el cero de W.
En efecto, ). 
 Luego . Nótese que usamos el símbolo para referirnos al cero de V y para el de W.
( ii) Las propiedades ( a) y ( b) definitorias de una t. l. , se pueden resumir en una sola como se puso al principio:
	⇐⇒	
Núcleo e Imagen
Sea T ∈ L( V, W) :
a.- El conjunto se l lama núcleo de T.
b.- El conjunto se llama imagen de V
bajo T, o simplemente imagen de T.
Teorema 1. Sea T ∈ L( V, W) .El Nuc ( T) y la Img ( T) son subespacios de V y W respectivamente.
Ejemplo 3:
Sea la t.l. T: definido por la regla 
a) Hallar la IMAGEN de T
b) Hallar el NUCLEO de T
Solucion:
a) La Imagen de T esta formado por vectores de la forma (r, s, t) tal que 
Haciendo mas sencilla la matriz aumentada:
La Imagen de T es que geométricamente es un plano que pasa por el origen.
b) El núcleo de T se obtiene:
Haciendo más sencilla la matriz aumentada:
Haciendo :
Entonces el vector solución es
El nucleo de T es 
Representa la ecuación paramétrica de una recta que pasa por el origen de coordenadas.
Teorema 2. Sea T ∈ L( V, W) y V de dimensión finita, entonces
Matriz de una transformación lineal
La matriz de T (o representación matricial) en el par de bases B1 y B2 se define por:
[
Teorema 3. una base de V , y 
 una base de W. 
Si es la matriz de T en las bases B1 y B2, entonces
 = .
Ejemplo 4:
Considere la t.l. tal que
Y sean , las bases canónicas de respectivamente. Además
 una base de y 
 base de . Encuentre las matrices: y .
Solución: 
Resulta fácil ver que:
Luego
Luego:
				
Inyectividad, Sobreyectividad y Biyectividad
Sea , una función del conjunto A al conjunto B.
a) Se dice que f es inyectiva si todo elemento tiene a lo
más una pre imagen ), o equivalentemente si:
b) f es sobreyectiva si todo elemento z ∈ B es imagen de algún
, o sea,. Equivalentemente, f es sobreyectiva
si la ecuación en la variable x:
 tiene solución
c) Cuando f es inyectiva y sobreyectiva se dice que f es biyectiva.
Ejemplo 5: Sea T ∈ L() definida por
 
. Es T sobreyectiva?
Solución:
 T es sobreyectiva si tiene solución
Resolviendo el sistema se tiene que . Luego para cada (a, b, c) ∈ el sistema tiene solución por lo tanto es sobreyectiva.
Verificar la inyectividad de una transformación lineal a partir de la definición, aunque no es en extremo difícil, es más difícil si se emplea el teorema siguiente.
Teorema 4. Sea T ∈ L(V,W). Se tiene que:
T es inyectiva 
Teorema 5. Sea T ∈ L(V,W)
(a) Si entonces
(b) Si T es inyectiva y son l.i. entonces
 son l.i.
En particular: 
Conclusión
	
Se han visto de forma más detallada y con más exactitud los teoremas y propiedades que hilan todos los temas propuestos por este trabajo y se ha llegado a la conclusión de que todos los temas están relacionados en cierta forma ya que en varios de estos se necesita recurrir a las propiedades que se han visto en temas anteriores.
Autovalores y autovectores
 • Definición de autovalor: λ ∈ R (o a C, aunque no lo consideraremos) es un autovalor de una matriz A, cuadrada, n × n, si existe un vector 
• A se le llama autovector asociado al autovalor λ. 
También se utilizan los nombres valor propio y vector propio, respectivamente, para autovalor y autovector.
Observaciones: 
1. Si ⇒ ⇒…. 
Por tanto, para determinar cómo actúa resulta útil conocer λ y , pues el estudio de es mucho más sencillo. 
2. Si es un autovector asociado a λ, entonces es otro autovector asociado a λ. 
En efecto: si 
Diagonalización: Casos
Una matriz cuadrada A, de orden n, se dice que es diagonalizable si existe una matriz invertible P, de orden n, y una matriz diagonal, tal que . 
Otra manera de decirlo es: Una matriz cuadrada A es diagonalizable si es semejante a una matriz diagonal.
Caso 1. Cuando todos los autovalores son distintos y pertenecen a los reales:
Si una matriz cuadrada A, de orden n, tiene n autovalores reales distintos diferentes de cero, entonces el conjunto {} es linealmente independiente. Luego, la matriz A es diagonalizable.
Puede observarse que si {} son L.i ⇒ la matriz P={} es inversible. Luego puede escribise que .
Ejemplos: 
1. Diagonalización de 
Autovalores: λ = 3; λ = 1; λ = 4 . Los tres autovalores son simples ⇒ la matriz es diagonalizable.
• Si λ = 3,
 
 
 
• Si λ = 1,
 
 
 
• Si λ = 4,
 
 
 
La matriz 
 
2. Diagonalización de 
Autovalores: λ = ; λ = ; λ = . Los tres autovalores son simples ⇒ la matriz es diagonalizable.
• Si λ =,
 
 
 
• Si λ = ,
 
 
 
• Si λ = ,
 
 
 
La matriz 
 
Caso 2. Cuando hay autovalores repetidos (multiplicidad) y pertenecen a los reales:
Si una matriz cuadrada A, de orden n, es diagonalizable si y sólo si todos sus autovalores son reales y diferentes de cero, además, la multiplicidad geometrica de cada uno coincide con su multiplicidad algebraica.
La multiplicidad algebraica es la del autovalor: solución doble, triple… de la ecuación 
La multiplicidad geometrica es la de los autovectores respectivos: la dimension del espacio vectorial solucion del autosistema 
Ejemplos:
3. Diagonalización de 
Autovalores: λ = 3; multiplicidad=2 
 λ = 5; multiplicidad=1 
• Si λ = 3,
 
 
 
 
• Si λ =5,
 
 
 
 
La matriz 
4. Diagonalización de 
Autovalores: λ = -2; multiplicidad=2 
 λ = 4; multiplicidad=1 
• Si λ = -2,
 
 
 
 
• Si λ =4,
 
 
 
 
Caso 3. Cuando hay autovalores que pertenecen a los complejos:
Si una matriz cuadrada A, de orden n, tiene n autovalores complejos distintos diferentes de cero, entonces el conjunto {} es linealmente independiente. Luego, la matriz A es diagonalizable.
Puede observarse que si {} son L.i ⇒ la matrizP={} es inversible. Luego puede escribise que .
Ejemplos: 
5. Diagonalización de 
Autovalores: λ = ; λ = ; λ = . Los autovalores son simples ⇒ la matriz es diagonalizable.
• Si λ = ,
 
 
 
• Si λ = ,
 
 
 
• Si λ = ,
 
 
 
La matriz 
 
 
6. Diagonalización de 
Autovalores: λ =; λ =; λ = . Los autovalores son simples ⇒ la matriz es diagonalizable.
• Si λ = ,
 
 
 
• Si λ = ,
 
 
 
• Si λ =,
 
 
 
La matriz 
 
 
Caso 4. Cuando hay autovalores que son iguales a cero:
7. Diagonalización de 
Autovalores: λ = 0; λ = 3; λ = 17 . Los tres autovalores son simples ⇒ la matriz es diagonalizable.
• Si λ = 0,
 
 
 
• Si λ = 3,
 
 
 
 
• Si λ = 17,
 
 
 
 
La matriz 
 
Conclusión
El objetivo es determinar qué matrices son diagonalizables y, de acuerdo a esto, hallar P y D.
Espacios con Producto Interno
Proceso de Ortogonalización de Gram-Schmidt
Teorema:
Sea V un espacio con producto interno y sean v1,…,vn vectores independientes cualesquiera de V. Entonces se pueden construir vectores ortogonales c en V tales que para cada k=1,2,…,n el conjunto S={µ1,…,µk} sea una base del subespacio generado por v1,…,vk.
Demostración:
La construcción de los vectores ortogonales µ1,…,µk es por un algoritmo conocido con el nombre de proceso de ortonormalización de Gram Schmidt.
PRIMERO: asumimos que µ1= v1.
SEGUNDO: Supongamos que, por inducción, los vectores µ1,…,µm (1≤m≤n) hayan sido elegidos de modo que para cada k {µ1,…,µk} , 1≤k≤m es una base ortogonal para el subespacio de V que es generado por v1,…,vk.
El siguiente vector, después de µm es:
 ………(1)
Vm+1
µm+1
µk
En (1) µm+1≠0. De ser µm+1=0, se tendría que vm+1 es combinación lineal de µ1,…,µm.
Además se cumple que: =0, si 1≤j≤m.
Probemos:
µm+1
				……(2)
En (1) multiplicar, escalarmente, por el vector µj
0
…………………(3)
Sustituir (3) en (2): 
0
Por tanto, {µ1,…,µm+1} es un conjunto ortogonal que consta de m+1 vectores no nulos en el subespacio generado por v1,…,vm+1. Por el teorema que demuestra que los conjuntos ortonormales son linealmente independientes, {µ1,…,µm+1} es una base para el subespacio generado por v1,…,vm+1.
De esta manera los vectores µ1,…,µn pueden construirse unos después de otros de acuerdo al algoritmo dado en (1).
En particular, si se tiene 4 vectores {v1,v2,v3,v4} los vectores ortogonales {µ1,µ2,µ3,µ4} se obtienen del siguiente modo:
EJEMPLOS:
Usar el proceso de Gram Schmidt para transformar la base B del espacio euclidiano R3 en una base ortogonal. 
 
Solución:
Luego es una base ortogonal de R3.
Solución:
Luego es una base ortogonal de R3.
Conclusión
Este procedimiento nos ayuda inicialmente a poder hallar una base ortogonal, pero al hallar también esta base nos bastara solo el hecho de dividir cada vector entre su norma para hallar una base ortonormal en lo que se basa principalmente, y así hacer de una manera más fácil la resolución de este capítulo de Algebra Lineal.
61

Continuar navegando

Otros materiales