Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Álgebra lineal Felipe Zald́ıvar Departamento de Mateḿaticas Universidad Aut́onoma Metropolitana-I México, D.F., Ḿexico Álgebra Lineal Álgebra Lineal Felipe Zald́ıvar Primera edicíon: 2003 c© Felipe Zald́ıvar ISBN: 970-xxx-xxx-x Impreso en Ḿexico/Printed in Mexico Índice general Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .IX Caṕıtulo 1 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.5 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.6 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 Caṕıtulo 2 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 2.3 Transformacíon lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.3.1 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.3.2 La transformación lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.4 Matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Caṕıtulo 3 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.1 Solubilidad de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.2 Operaciones elementales y el rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.3 El ḿetodo de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Caṕıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.1 Expansíon por menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.2 Permutaciones y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.3 Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 Caṕıtulo 5 Diagonalizacíon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 5.2 Subespacios invariantes y subespacios cı́clicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 5.3 Polinomios de matrices y de operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Caṕıtulo 6 Formas cańonicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.1 Triangulacíon de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.2 La forma cańonica de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.3 La forma cańonica racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 Caṕıtulo 7 Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 7.1 Productos internos y hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 VII VIII ÍNDICE GENERAL 7.2 Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 7.3 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Caṕıtulo 8 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 8.1 La adjunta de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 8.2 Operadores audoadjuntos y normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.3 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 8.4 Operadores ortogonales y unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 Caṕıtulo 9 Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.1 Funciones y formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.2 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 9.3 Formas cuadráticas sobreR. El teorema de Sylvester . . . . . . . . . . . . . . . . . . . . . . 195 9.4 Aplicaciones a la geometrı́a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 Caṕıtulo 10 Álgebra multilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 10.1 Funciones multilineales y el producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . 199 10.2 Tensores siḿetricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Bibliograf́ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 Prólogo Oh, do not ask, ‘What is it?’ Let us go and make our visit. T. S. Eliot. ESTAS SON LAS NOTASde los cursos déAlgebra Lineal que he enseñado en la Licencia-tura en Mateḿaticas de la UAM-I en ãnos recientes. Los prerequisitos son mı́nimos: la asignatura deEstructuras Nuḿericases ḿas que suficiente. La idea fundamental del curso es el estudio de la matemática alrededor del problema de resolversistemas de ecua- ciones lineales. El libro comienza motivado poŕesto y avanza introduciendo las ideas y métodos necesarios paraentenderel algoritmo usual para resolver sistemas de ecuaciones, el método de eliminación gaussiana. Este es un curso para estudiantes demateḿaticas y, aunque es elemental, todos los resultados y métodos se justifican. No es un curso de recetas, por el contrario, es un estudio de algunas de las ideas necesarias para entender el problema considerado. En cada momento se enfatizan los conceptos y su relación con el problema de resolver sistemas de ecuaciones. En el capı́tulo 3, usando todas las herra- mientas introducidas previamente, se estudia el método de Gauss para resolver sistemas de ecuaciones, justificando el conjunto de conceptos e ideas que tuvieron que introducirse en los dos caṕıtulos anteriores. La segunda parte del libro es un estudio elemental de los operadores lineales en un espacio vectorial de dimensión finita y abarca desde el capı́tulo 4 donde se introduce la noción de determinante de una matriz, generalizandolos casos 2 × 2 y 3 × 3 ya conocidos desde otros cursos, para probar todas las propiedades de los determinantes que se usarán en los caṕıtulos 5 y 6 donde se estudian formas especiales de algunos operadores lineales: diagonalizables, triangulables, en forma canónica de Jordan o en forma cańonica racional, todas ellos de importancia capital en la matemática. En la tercera parte del libro se introducen estructuras especiales en los espacios vectoriales: pro- ductos internos y productos hermitianos en el capı́tulo 7, para despúes estudiar aquellos operadores lineales que tienen ciertas simetrı́as con respecto al los productos internos o hermitianos considerados, en particular se obtienen criterios para la diagonalizabilidad de algunos de estos operadores culminando con la demostración de los teoremas espectrales correspondientes. En el capı́tulo 9 se hace un estudio elemental de funciones y formas bili- neales, en especial formas cuadráticas, para terminar con una aplicación a la geometrı́a de cónicas enR2 y cuádricas enR3. El caṕıtulo 10 es una introducción alálgebra multilineal. Al lector o lectora de estas notas, se le invita a escribir al autor, a la dirección electŕoni- ca: fzc@xanum.uam.mx con cualquier sugerencia, crı́ticas, correcciones tipográficas o de estilo. Puedes guardar o imprimir una copia de estas notas para tu uso personal, si ası́ lo deseas. El autor se reserva los derechos sobre la presentación y organizacíon de los temas. IX Caṕıtulo 1 Espacios vectoriales DE LAS ECUACIONES QUE HEMOS ESTUDIADO HASTA AHORA, las ḿas sencillas sonecuaciones en una variable, por ejemplo del estiloax = b. En forma natural uno puede considerar ecuaciones en más de una variable y las más simples de ellas son las ecuaciones polinomiales de primer grado, a las que llamaremosecuaciones lineales. Por ejemplo, en una variable son de la formaax = b; en dos variables son ecuaciones de la forma ax + by = c; en tres variables son ecuaciones de la formaax + by + cz = d. En general, si tenemosn variablesx1, . . . ,xn, unaecuacíon lineal enn variableses una igualdad de la forma (∗) a1x1 + · · ·+ anxn = b con los coeficientesa1, . . . , an y el término independienteb elementos de uncampoK (por ejemplo,Q, R, C ó Z/pZ). La pregunta importante, en este contexto, es ¿qué valores de las variables son soluciones de (∗)?, es decir, ¿qúe valores de las variablesxj = αj ∈ K son tales que al substituirlos en (∗) la convierten en una igualdad en el campoK? Veamos unos ejemplos: Ejemplo 1. Para la ecuación 2x + 3y = 5, si ponemosx = 1, y = 1, se tiene que2(1) + 3(1) = 5 es una igualdad verdadera (digamos, en el campoR). Diremos entonces que x = 1, y = 1 son unasolucíon de la ecuacíon 2x + 3y = 5. Observe que pueden existir mas soluciones, por ejemplox = 10, y = −5 es una solución ya que2(10) + 3(−5) = 20− 15 = 5. Note tambíen que si intercambiamos los valores dex y y, poniendox = −5, y = 10, ya no se tiene una solución ya que2(−5)+3(10) = −10+30 = 20 6= 5. El punto aqúı es que una solución de2x + 3y = 5 es unpar ordenado(x0, y0) de elementos del campoK (en nuestro ejemploK = R) tal que2x0 + 3y0 = 5. Aśı, (10,−5) es solucíon de2x + 3y = 5, pero(−5, 10) no lo es. Resumiendo, las soluciones de2x + 3y = 5 son pares ordenados(x0, y0) ∈ R× R. Ejemplo 2. En forma ańaloga, si consideramos una ecuación de la forma (∗) en tres varia- bles, digamos con coeficientes reales: 2x− 3y + 5z = 10 y nos preguntamos por sus soluciones, observe quex = 3, y = 2, z = 2 es una solución de la ecuacíon anterior, ya que 2(3)− 3(2) + 5(2) = 10. Aśı, la terna ordenada(3, 2, 2) es una solución de2x− 3y + 5z = 10, pero(2, 3, 2) no lo es ya que 2(2)− 3(3) + 5(2) = 5 6= 10. Es decir, las soluciones de2x − 3y + 5z = 10 son ternas ordenadas de números reales (x0, y0, z0). 1 2 1. ESPACIOS VECTORIALES Las observaciones hechas en los ejemplos anteriores se pueden resumir, en el caso general, como sigue: para la ecuación lineal (∗) a1x1 + · · ·+ anxn = b, si los coeficientesaj y el término independienteb son ńumeros reales y si queremos solu- ciones reales, entonces elconjunto de solucionesS de (∗) es un subconjunto deR×· · ·×R (n factores). Y, en general, si los númerosaj , b pertenecen a un campoK y si queremos so- luciones con valores enK, entonces el conjunto de solucionesS de (∗) es un subconjunto de n veces︷ ︸︸ ︷ K × · · · ×K . La pregunta importante en este contexto es: ¿cómo encontrar todas las soluciones de una ecuacíon lineal de la forma (∗)? y, para comenzar, ¿cómo sabemos si una ecuación de la forma (∗) tiene o no soluciones? En los caṕıtulos siguientes desarrollaremos métodos para responder a las dos pregun- tas anteriores y comenzamos, en la sección siguiente, planteando el problema anterior en un contexto un poco ḿas general. 1.1. Sistemas de ecuaciones lineales Hemos considerado ecuaciones lineales de la forma (∗) a1x1 + · · ·+ anxn = b, y vimos que sus soluciones son un subconjuntoS del producto cartesiano n veces︷ ︸︸ ︷ K × · · · ×K al que denotaremos porKn. Ahora, adeḿas de considerar una sola ecuación lineala1x1 + · · · + anxn = b, podemos considerar dos o más tales ecuaciones. Por ejemplo, podemos considerar dos ecuaciones, con coeficientes enR, de la forma 2x+ 3y = 5 4x− 2y = 6 y preguntarnos por las soluciones (pares ordenados deR2) que sean solución simult́anea de la primera y de la segunda ecuación. En el ejemplo anterior,(1, 1) es solucíon de la primera ecuación ya que2(1) + 3(1) = 5, perono lo es de la segunda ecuación ya que 4(1) − 2(1) = 2 6= 6. Similarmente,(3, 3) es solucíon de la segunda ecuación pero no lo es de la primera. Observe ahora que el par ordenado(7/4, 1/2) es solucíon de ambas ecuaciones ya que 2(7/4) + 3(1/2) = 5 4(7/4)− 2(1/2) = 6. El ejemplo anterior muestra que algunas soluciones de una ecuación no tienen por qué ser soluciones de la otra y que puede haber soluciones que lo sean de ambas ecuacio- nes. En este marco general, estudiaremos el problema de encontrar todas las soluciones de un conjunto dem ecuaciones lineales enn variables de la forma (∗), requiriendo que las soluciones lo sean de todas las ecuaciones dadas. Diremos en este caso que tenemos un 1.1. SISTEMAS DE ECUACIONES LINEALES 3 sistema dem ecuaciones lineales enn incógnitasy usaremos la notación siguiente para denotar a un tal sistema: a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm donde loscoeficientesaij y los términos independientesbi son elementos de un campoK. Recordemos que las soluciones buscadas sonn-adas ordenadas(x1, . . . , xn), es decir, son elementos deKn := n veces︷ ︸︸ ︷ K × · · · ×K. Antes de comenzar a buscar soluciones de un sistema de ecuaciones como el anterior, debemos preguntarnos si estas soluciones existen ya que puede suceder que el conjunto de soluciones de uno de estos sistemas sea el conjunto vacı́o. Por ejemplo, ḿas adelante veremos que el sistema de ecuaciones 2x+ 3y = 5 4x+ 6y = 1 no tiene soluciones. Si la lectora o lector recuerda su curso de geometrı́a, podŕa reconocer por qúe el sistema anterior no tiene soluciones, por ejemplo recordando que el conjunto de soluciones enR2 de una ecuación de la formaax+ by = c representa una rectaL enR2: ◦ - 6 L � � � � � �� y que las dos rectas del sistema anterior son paralelas distintas. Conviene entonces, para comenzar, considerar sistemas de ecuaciones lineales de los cuales sepamos que siempre tienen soluciones. Algunos de estos sistemas son aquellos de la forma: a11x1 + a12x2 + · · ·+ a1nxn = 0 a21x1 + a22x2 + · · ·+ a2nxn = 0 ... am1x1 + am2x2 + · · ·+ amnxn = 0 donde todos los términos independientes sonbi = 0. Llamaremoshomoǵeneosa estos sistemas de ecuaciones y observamos que siempre tienen la solución (0, . . . , 0) ∈ Kn. Aśı, el conjuntoSh ⊆ Kn de soluciones de un sistema homogéneo es no vacı́o ya que contiene al elemento0 = (0, . . . , 0) ∈ Kn. Supongamos ahora queu = (u1, .. . , un) y v = (v1, . . . , vn) son dos elementos deSh, i.e., son soluciones del sistema de ecuaciones 4 1. ESPACIOS VECTORIALES homoǵeneo. Entonces, substituyendo losuj en el sistema de ecuaciones se obtienen las igualdades (1) ai1u1 + ai2u2 + · · ·+ ainun = 0 para1 ≤ i ≤ m y similarmente, substituyendo losvj se obtienen las igualdades (2) ai1v1 + ai2v2 + · · ·+ ainvn = 0 para1 ≤ i ≤ m. Observe ahora que si definimos la suma de lasn-adasu y v componente a componente: u+ v := (u1, . . . , un) + (v1, . . . , vn) = (u1 + v1, . . . , un + vn) estan-ada tambíen es un elemento deKn ya que cada componenteuj + vj ∈ K porque el campoK es cerrado bajo sumas. Se tiene además queu + v tambíen es solucíon del sistema homoǵeneo dado ya que ai1(u1 + v1) + ai2(u2 + v2) + · · ·+ ain(un + vn) = (ai1u1 + · · ·+ ainun) + (ai1v1 + · · ·+ ainvn) = 0 + 0 = 0 por (1) y (2). Hemos mostrado ası́ que el conjuntoSh de soluciones de un sistema de ecuaciones homoǵeneo escerrado bajo sumas. Tambíen, siu = (u1, u2, . . . , un) ∈ Sh y λ ∈ K es cualquier elemento del campoK, entonces definiendo λ · u := (λu1, λu2, . . . , λun) observamos queλ · u ∈ Kn ya que cadaλui ∈ K porque el campoK es cerrado bajo productos. Se tiene además queλu sigue siendo una solución del sistema homogéneo ya que ai1(λu1) + ai2(λu2) + · · ·+ ain(λun) = λ(ai1u1 + ai2u2 + · · ·+ ainun) = λ(0) = 0 factorizando aλ y usando (1). Hemos mostrado ası́ que el conjuntoSh de soluciones de un sistema de ecuaciones homoǵeneo escerrado bajo productos por elementos del campoK. De ahora en adelante a los elementos de un campoK los llamaremosescalares. Resumiendo, siSh ⊆ Kn es el conjunto de soluciones de un sistema de ecuaciones lineales homoǵeneas, hemos probado queSh satisface: (1).Sh contiene al elemento0 ∈ Kn. (2).Sh es cerrado bajo sumas componente a componente. (3).Sh es cerrado bajo producto por escalares. Nótese ćomo en la demostración de las propiedades anteriores se usó fuertemente el hecho de que los términos independientes de las ecuaciones lineales del sistema sean0, porque este ńumero satisface que0+0 = 0 y λ·0 = 0 enK. Si alǵun t́ermino independiente no fuera0 el conjunto de soluciones no serı́a cerrado bajo ninguna de las dos operaciones anteriores e incluso podrı́a ser vaćıo como observamos en un ejemplo previo. En el caso de un sistema homogéneo, el conjuntoSh satisface las propiedades extras siguientes: 1.1. SISTEMAS DE ECUACIONES LINEALES 5 Proposición 1.1. El conjuntoSh ⊆ Kn de soluciones de un sistema de ecuaciones ho- moǵeneas, junto con las operacionessumay producto por un escalar, satisface las propie- dades siguientes: (1) La suma esasociativa, es decir, siu, v, w ∈ Sh, entonces u+ (v + w) = (u+ v) + w. (2) La suma esconmutativa, es decir, para todou, v ∈ Sh se tiene que u+ v = v + u. (3) El elemento0 ∈ Sh esneutro aditivo, es decir, para cualquieru ∈ Sh se tiene que u+ 0 = u. (4) Para cada elementou ∈ Sh existe un elementou′ ∈ Sh tal queu+u′ = 0. Al elemento u′ se le llama uninverso aditivodel elementou. El producto por un escalar del campoK y un elemento deSh satisface: (5) Para cualesquierau, v ∈ Sh y λ ∈ K se tiene que λ(u+ v) = λu+ λv. (6) Para cualesquierau ∈ Sh y λ, γ ∈ K se tiene que (λ+ γ)u = λu+ γu. (7) Para cualesquierau ∈ Sh y λ, γ ∈ K se tiene que (λ · γ)u = λ · (γ · u). (8) Para todou ∈ Sh y para el neutro multiplicativo1 ∈ K se tiene que 1 · u = u. DEMOSTRACIÓN. Probaremos algunas de las propiedades anteriores, dejando las otras como un ejercicio. Para (2), siu = (u1, . . . , un) y v = (v1, . . . , vn) son dos elementos arbitrarios deSh, entonces u+ v = (u1, . . . , un) + (v1, . . . , vn) = (u1 + v1, . . . , un + vn) por definicíon de suma enSh = (v1 + u1, . . . , vn + un) porqueui + vi = vi + ui enK = v + u por definicíon de suma enSh. Para (3), siu = (u1, . . . , un) ∈ Sh, entonces u+ 0 = (u1, . . . , un) + (0, . . . , 0) = (u1 + 0, . . . , un + 0) por definicíon de suma enSh = (u1, . . . , un) porqueui + 0 = ui enK = u. Para (4), siu = (u1, . . . , un) ∈ Sh, entonces el elemento u′ := (−u1, . . . ,−un) 6 1. ESPACIOS VECTORIALES pertenece aSh y adeḿas satisface queu + u′ = 0. En efecto, comou′ = (−1)u y como Sh es cerrado bajo multiplicación por escalares, entoncesu′ ∈ Sh. Ahora, u+ u′ = (u1, . . . , un) + (−u1, . . . ,−un) = (u1 − u1, . . . , un − un) = (0, . . . , 0) = 0. Para (6), siu = (u1, . . . , un) ∈ Sh y λ, γ ∈ K, entonces (λ+ γ)u = (λ+ γ)(u1, . . . , un) = ((λ+ γ)u1, . . . , (λ+ γ)un) = (λu1 + γu1, . . . , λun + γun) = (λu1, . . . , λun) + (γu1, . . . , γun) = λu+ γu. � EJERCICIO1. Demuestre las propiedades (1), (5), (7) y (8) de la proposición anterior. El lector habŕa notado que hasta ahora no hemos dado algún método para hallar solu- ciones (diferentes de la solución obvia0) de un sistema homogéneo de ecuaciones lineales. Tan śolo hemos probado algunas propiedades del conjunto de soluciones de un tal sistema homoǵeneo. Por el momento tendremos que conformarnos con esto; más adelante desarro- llaremos un ḿetodo general para hallar todas las soluciones de un sistema de ecuaciones lineales homoǵeneo o no y será hasta ese momento cuando las propiedades que acabamos de demostrar muestren su importancia debida. Ası́, despúes de pedir la confianza del lector en este punto, lo anterior sirvaúnicamente como motivación para el estudio de los conjun- tosV que satisfacen las mismas propiedades queSh. El lector notaŕa sin embargo que el tema de las soluciones de sistemas de ecuaciones lineales estará siempre presente en los desarrollos que haremos y en algunos puntos lo haremos explı́cito cuando convenga. 1.2. Espacios vectoriales En la seccíon anterior vimos ćomo el conjuntoSh de soluciones de un sistema de ecuaciones lineales homogéneas es cerrado bajo sumas y producto por escalares del cam- po dado y adeḿas satisface las propiedades listadas en la proposición 1.1. En general exis- ten muchos conjuntosV que tienen operaciones como las del conjuntoSh y satisfacen propiedades ańalogas; en esta sección comenzamos su estudio. Definición 1.2. SiK es un campo (por ejemploQ, R, C ó Z/pZ conp primo), unespacio vectorial sobreK (ó K-espacio vectorial) es un conjunto no vacı́o V (cuyos elementos llamaremosvectores) junto con dos operaciones: SUMA DE VECTORES. Siu, v ∈ V se tiene definido otro vectoru+ v ∈ V y decimos que la operacíonsumaes cerrada. PRODUCTO DE UN ESCALAR POR UN VECTOR. Si u ∈ V y λ ∈ K se tiene definido otro vectorλ · u ∈ V . Y se requiere que estas operaciones satisfagan las propiedades siguientes: 1.2. ESPACIOS VECTORIALES 7 (1) La suma esasociativa, es decir, siu, v, w ∈ V , entonces u+ (v + w) = (u+ v) + w. (2) La suma esconmutativa, es decir, para todou, v ∈ V se tiene que u+ v = v + u. (3) Existe unneutro aditivo, es decir, existe un elemento0V ∈ V tal que para cualquier u ∈ V se tiene que u+ 0V = u. (4) Para cada elementou ∈ V existe un elementou′ ∈ V tal queu+u′ = 0V . Al elemento u′ se le llama uninverso aditivodel elementou. El producto por un escalar del campoK y un elemento deV satisface: (5) Para cualesquierau, v ∈ V y λ ∈ K se tiene que λ(u+ v) = λu+ λv. (6) Para cualesquierau ∈ V y λ, γ ∈ K se tiene que (λ+ γ)u = λu+ γu. (7) Para cualesquierau ∈ V y λ, γ ∈ K se tiene que (λ · γ)u = λ · (γ · u). (8) Para todou ∈ V y para el neutro multiplicativo1 ∈ K se tiene que 1 · u = u. Ejemplo 3. Con esta terminologı́a, el conjuntoSh de soluciones de un sistema de ecuacio- nes lineales homogéneas es unK-espacio vectorial. Ejemplo 4. SiK es un campo y V := Kn = n veces︷ ︸︸ ︷ K × · · · ×K, los elementos deV son todas lasn-adas ordenadasu = (a1, . . . , an) con entradasaj ∈ K. Recuerde que dosn-adas ordenadasu = (a1, . . . , an) y v = (b1, . . . , bn) deV = Kn son iguales, denotadou = v, si y śolo siaj = bj para todas lasj = 1, . . . , n. I. EnV = Kn se define unasumamediante la regla u+ v = (a1, . . . , an) + (b1, . . . , bn) := (a1 + b1, . . . , an + bn), observandoque, comoaj + bj ∈ K, entoncesu + v ∈ V , es decir, la suma anterior es cerrada enV . II. En V = Kn se define el producto por un escalar mediante la regla siguiente: siλ ∈ K y u = (a1, . . . , an) ∈ V , se define λ · u = λ · (a1, . . . , an) := (λu1, . . . , λun) observando que, comoλaj ∈ K, entoncesλu ∈ V . EJERCICIO 2. Verifique queV = Kn, con las operaciones anteriores, es unK-espacio vectorial. 8 1. ESPACIOS VECTORIALES Ejemplo 5. Si K es cualquier campo yV = K[x] es el conjunto de polinomios en una variablex, con coeficientes enK, los elementos deV = K[x] son las expresiones de la forma f = f(x) = a0 + a1x+ a2x2 + · · ·+ amxm con losaj ∈ K y m ≥ 0 un entero. Recuerde que dos polinomiosf(x) = a0 + a1x + a2x 2 + · · ·+ amxm y g(x) = b0 + b1x+ b2x2 + · · ·+ bnxn son iguales, denotadof = g, si y śolo sim = n y aj = bj para cadaj. I. EnV = K[x] se tiene la suma usual de polinomios f + g := (a0 + b0) + (a1 + b1)x+ (a2 + b2)x2 + · · ·+ (ak + bk)xk + · · · (sumando los coeficientes de los términos correspondientes) y observamos queaj+bj ∈ K por lo quef + g ∈ V = K[x]. II. Si f = a0 + a1x+ a2x2 + · · ·+ amxm ∈ V = K[x] y λ ∈ K, se defineλ · f como λf= λ(a0 + a1x+ a2x2 + · · ·+ amxm) = (λa0) + (λa1)x+ (λa2)x2 + · · ·+ (λam)xm y se observa que, comoλaj ∈ K, entoncesλ · f ∈ V = K[x]. EJERCICIO3. Verifique queV = K[x] es unK-espacio vectorial. Ejemplo 6. ParaK = R pongamos V := {f : [a, b] → R : f es una funcíon}, i.e.,V es el conjunto de funciones del intervalo real[a, b] a la recta realR. En V se define una suma de funciones en la forma usual: sif, g ∈ V se define la funciónf + g : [a, b] → R mediante la regla (f + g)(α) := f(α) + g(α) paraα ∈ [a, b]. Tambíen, sif ∈ V y λ ∈ R, se define el productoλ · f : [a, b] → R mediante la regla (λ · f)(α) = λ · f(α) paraα ∈ [a, b]. EJERCICIO 4. Compruebe que el conjunto de funcionesV anterior, con las operaciones definidas antes, es unR-espacio vectorial. Ejemplo 7. SiK = R, consideremos el conjunto V := {s : N → R : s es una funcíon}, es decir,V es el conjunto de funciones con dominio los naturales y codominio los reales. Una funcíons : N → R se suele llamar unasucesíoncon valores reales. Dada una sucesión s : N → R, para cada naturaln ∈ N se tiene uńunico valor reals(n) ∈ R. Es costumbre usar la notacíon sn := s(n) ∈ R y a la sucesíon s : N → R se le denota{sn} sobreenten- diendo su dominio,N, y su codominio,R. En el conjuntoV de sucesiones reales se tiene la suma usual: si{an} y {bn} son dos elementos deV se define: {an}+ {bn} := {an + bn}, y, siλ ∈ R y {an} ∈ V , se define λ · {an} := {λan}. 1.2. ESPACIOS VECTORIALES 9 EJERCICIO 5. Demuestre que el conjunto de sucesiones realesV , con las operaciones anteriores, es unR-espacio vectorial. Ejemplo 8. (Matrices.) Este es un ejemplo muy importante: siK es cualquier campo y m,n ∈ N son dos naturales dados, unamatrizm × n con entradas en el campoK, es un arreglo rectangular de la forma: a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... am1 am2 · · · amn donde cada entradaaij ∈ K, para1 ≤ i ≤ m y 1 ≤ j ≤ n. En una matrizm × n distinguiremos susrenglonesy suscolumnas: a11 a12 · · · a1j · · · a1n a21 a22 · · · a2j · · · a2n ... ... ... ai1 ai2 · · · aij · · · ain ... ... ... am1 am2 · · · amj · · · amn -RengĺonRi ColumnaCj ? de tal forma que una matrizm × n tienem renglonesRi, 1 ≤ i ≤ m y n columnasCj , 1 ≤ j ≤ n, dados por Ri = (ai1, ai2, . . . , ain) y Cj = a1j a2j ... amj Observe entonces que los renglonesRi son vectores deKn y, salvo la notacíon, las columnas son vectores deKm. Usaremos letras mayúsculas comoA, B, C para denotar a matricesm × n y, en ocasiones, usaremos la abreviación A = (aij)m×n para denotar una matrizm × n con entradasaij . Si A = (aij)m×n y B = (bij)m×n son dos matrices del mismo tamañom × n, con entradas en el campoK, diremos que la matrizA esigual a la matrizB, denotadoA = B, si y śolo si aij = bij para todoi = 1, . . . ,m y todoj = 1, . . . , n. Es decir, dos matrices son iguales si y śolo si entrada por entrada son iguales. 10 1. ESPACIOS VECTORIALES Denotaremos medianteMatm×n(K) al conjunto de matrices de tamañom × n con entradas en el campoK. En este conjunto se tienen las operaciones: I. SUMA DE MATRICES. SiA = (aij)m×n yB = (bij)m×n son matrices enMatm×n(K), se define su suma mediante: A+B = (aij) + (bij) := (aij + bij) sumando coeficiente a coeficiente. Es claro queA+B ∈ Matm×n(K), por lo que la suma es cerrada. II. PRODUCTO DE UN ESCALAR POR UNA MATRIZ. Si A = (aij)m×n es una matriz en Matm×n(K) y λ ∈ K es un escalar, se defineλ ·A mediante: λ ·A = λ(aij) := (λaij) multiplicando el escalarλ por cada uno de los coeficientes deA. Es claro queλA ∈ Matm×n(K). EJERCICIO 6. Demuestre que el conjunto de matricesMatm×n(K), con las operaciones anteriores, es unK-espacio vectorial.Nota:usaremos el sı́mbolo0 para denotar a la matriz m× n con todas sus entradasaij = 0 y la llamaremos la matriz cero. EJERCICIO7. SeaV := {f : R → R : f es una funcíonpar} (recuerde que unaf es una función par si y śolo si f(x) = f(−x) para todox ∈ R). Con la suma y producto por un escalar usuales (véase el ejemplo 6), demuestre queV es unR-espacio vectorial. EJERCICIO 8. SeanK = R y V = Cn con la suma coordenada a coordenada y para un escalarλ ∈ R se define el producto por un vector deV = Cn coordenada a coordenada. ¿EsV unR-espacio vectorial? Propiedades elementales de los espacios vectoriales.Las primeras propiedades de los espacios vectoriales son aquellas que uno podrı́a esperar: Lema 1.3(Ley de cancelación para la suma). SiV es unK-espacio vectorial yu, v, w ∈ V son tales que u+ v = u+ w, entoncesv = w. DEMOSTRACIÓN. Seau′ ∈ V un inverso aditivo deu (el cual existe por la propiedad 4 de la deficíon 1.2). Entonces, u+ v = u+ w ⇒ u′ + (u+ v) = u′ + (u+ w) ⇒ (u′ + u) + v = (u′ + u) + w por asociatividad ⇒ 0V + v = 0V + w ya queu′ + u = 0V (un neutro aditivo) ⇒ v = w. � Lema 1.4. SiV es unK-espacio vectorial, entonces: (1) El neutro aditivo deV esúnico. (2) Para cadau ∈ V su inverso aditivo eśunico. 1.2. ESPACIOS VECTORIALES 11 DEMOSTRACIÓN. (1) Supongamos que0V y 0′V son dos neutros aditivos deV . Entonces, 0V = 0V + 0′V ya que0 ′ V es neutro aditivo = 0′V ya que0V es neutro aditivo. (2) Seau ∈ V y supongamos queu′ y u′′ son ambos inversos aditivos deu. Entonces, u+ u′ = 0V ya queu′ es inverso aditivo deu = u+ u′′ ya queu′′ es inverso aditivo deu, se sigue queu + u′ = u + u′′ y, por la ley de cancelación, estoúltimo implica queu′ = u′′. � Al ( único) inverso aditivo deu ∈ V lo denotaremos mediante−u ∈ V . Proposición 1.5. SeaV unK-espacio vectorial. Entonces, (1) λ · 0V = 0V , para cualquierλ ∈ K y el vector0V ∈ V . (2) 0 ·u = 0, para el escalar0 ∈ K y cualquieru ∈ V . Nota: en la igualdad anterior el0 en el lado izquierdo denota al escalar0 ∈ K y el 0 en el lado derecho es el vector0V ∈ V . Algunas veces denotaremos al vector0V mediante un0 y el contexto debe indicar cuál es el significado correcto y no debe causar confusión. (3) (−1)u = −u, para el escalar−1 ∈ K y cualquieru ∈ V . DEMOSTRACIÓN. (1) Siλ ∈ K y 0 ∈ V , λ · 0 = λ · (0 + 0) ya que0 es neutro aditivo = λ · 0 + λ · 0, y, por la ley de cancelación, estóultimo implica queλ · 0 = 0. (2) Siu ∈ V y 0 ∈ K, 0 · u = (0 + 0) · u ya que0 ∈ K es neutro aditivo = 0 · u+ 0 · u, y, por la ley de cancelación, estóultimo implica que0 · u = 0. (3) Siu ∈ V y −1 ∈ K, u+ (−1) · u = 1 · u+ (−1) · u ya que1 · u = u = (1− 1) · u = 0 · u = 0 por la propiedad (2) anterior. Se sigue queu + (−1) · u = 0 y, por la unicidad del inverso aditivo deu, la igualdad anterior implica que(−1) · u = −u. � EJERCICIO9. SeaV unK-espacio vectorial. Siu ∈ V y λ ∈ K, demuestre que (−λ) · u = λ · (−u) = −(λ · u). EJERCICIO 10. SeaV un K-espacio vectorial. Siu, v ∈ V son tales queu + v = v, demuestre queu = 0. 12 1. ESPACIOS VECTORIALES EJERCICIO11. SeaV unK-espacio vectorial y seaλ ∈ K un escalar6= 0. Siu ∈ V estal queλ · u = 0, demuestre queu = 0. 1.3. Subespacios vectoriales Al estudiar sistemas dem ecuaciones lineales homogéneas enn incógnitas con coe- ficientes, digamos enR, mostramos en§1.1 que el conjunto de solucionesSh de un tal sistema es unR-espacio vectorial contenido enRn. Por el ejemplo 4 de§1.2, se tiene que Rn tambíen es unR-espacio vectorial y las operaciones deSh y deRn son las mismas y tenemos aśı dos espacios vectorialesSh ⊆ Rn con las mismas operaciones. Definición 1.6. Si V es unK-espacio vectorial yW ⊆ V es un subconjunto, diremos que W es unsubespacio vectorialdeV siW es unK-espacio vectorial con las operaciones de V restringidas aW . Observe que, siW ⊆ V es un subespacio vectorial, en particular esto quiere decir que: (i) W debe contener al vector0V deV , (ii) W es cerrado bajo la suma de vectores deV , (iii) W es cerrado bajo el producto por escalares deK, y (iv) para cadaw ∈W su inverso aditivo−w tambíen debe estar enW . Supongamos ahora queW ⊆ V es un subconjunto no vacı́o que satisface las condicio- nes (i), (ii), (iii) y (iv) anteriores. Observamos queW es un subespacio vectorial deV ya que todas las propiedades de espacio vectorial deV se heredan aW . Hemos aśı probado: Lema 1.7. SeanV unK-espacio vectorial yW ⊆ V un subconjunto no vacı́o. Entonces, W es un subespacio vectorial deV si y śolo siW satisface las condiciones(i), (ii), (iii) y (iv) anteriores. � Observemos ahora que siW ⊆ V satisface las condiciones (i), (ii), (iii), entonces tambíen satisface la condición (iv) ya que siw ∈ W , entonces para el escalar−1 ∈ K se tiene por (iii) que(−1)·w ∈W ; pero por la proposición 1.5(3) se tiene que(−1)·w = −w y por lo tanto (iv) se satisface. Hemos ası́ probado la simplificación siguiente del lema anterior: Lema 1.8. SeanV unK-espacio vectorial yW ⊆ V un subconjunto no vacı́o. Entonces, W es un subespacio vectorial deV si y śolo siW satisface las condiciones(i), (ii) y (iii) anteriores. � Ejemplo 9. Si V es cualquierK-espacio vectorial, entonces el subconjuntoW = {0V } ⊆ V es un subespacio vectorial. El subconjuntoW = V ⊆ V tambíen es un subespacio vectorial. Ejemplo 10. Si V = K[x] es el espacio vectorial de polinomios en una variable con coe- ficientes en el campoK, seaPn(K) el subconjunto deV formado por los polinomios de grado≤ n, paran ≥ 0 un entero fijo. Como el polinomio constante0 tiene grado 1.3. SUBESPACIOS VECTORIALES 13 gr(0) = −∞ < n, entonces0 ∈ Pn(K). ClaramentePn(K) es cerrado bajo sumas y producto por escalares. Se sigue quePn(K) es un subespacio deK[x]. Ejemplo 11. Si V = F([a, b],R) es elR-espacio vectorial de las funcionesf : [a, b] → R y W = C([a, b],R) es el subconjunto de funciones continuas de[a, b] enR, entoncesW es un subespacio vectorial deV ya que las funciones constantes son continuas (en particular, la función 0 es continua), la suma de funciones continuas es continua y el producto de un escalar real por una función continua es continua. Ejemplo 12. SiV = R2, podemos visualizarlo como el plano cartesiano: ◦ - 6 W = ejeX y siW = ejeX = {(a, 0) : a ∈ R}, se tiene queW es un subespacio vectorial deR2. Lo mismo es cierto para el ejeY . Matrices. Para poder dar ejemplos de subespacios del (importante) espacio vectorial de matricesMatm×n(K) necesitaremos algunas definiciones: (•)Una matrizA = (aij)m×n se dice que es unamatriz cuadradasim = n. (•) Dada una matriz cuadrada enMatn×n(K): A = (aij)n×n = a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... an1 an2 · · · ann a las entradas de la formaaii se les llama los elementos de ladiagonaldeA. (•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz diagonalsi todas sus entradas fuera de la diagonal son0, i.e., siaij = 0 siempre quei 6= j. Aśı, una matriz diagonal se ve como: a11 0 · · · 0 0 a22 0 · · · 0 0 0 a33 0 · · · 0 ... ... ... ... 0 · · · 0 0 ann Note que no estamos pidiendo que los elementos de la diagonal sean6= 0, bien puede suceder que algunos o todos los elementos de la diagonal también sean0. En particular, la matriz0 ∈ Matn×n(K) es una matriz diagonal. (•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz triangular superiorsi todas sus entradas abajo de la diagonal son0, i.e., siaij = 0 siempre quei > j. Aśı, una 14 1. ESPACIOS VECTORIALES matriz triangular superior se ve como: a11 a12 · · · a1n 0 a22 · · · a2n ... ... ... ... 0 · · · 0 ann (•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz triangular inferiorsi todas sus entradas arriba de la diagonal son0, i.e., siaij = 0 siempre quei < j. Aśı, una matriz triangular inferior se ve como: a11 0 · · · 0 a21 a22 0 · · · 0 ... ... ... ... an1 an2 · · · ann (•) Si A = (aij)m×n = a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... am1 am2 · · · amn m×n es una matrizm × n, su transpuesta, denotadatA es la matrizn × m que se obtiene intercambiando renglones y columnas deA, i.e., tA = (aji)n×m = a11 a21 · · · am1 a12 a22 · · · am2 ... ... ... a1n a2n · · · amn n×m Por ejemplo, si A = ( 1 2 4 −1 3 0 ) 2×3 entonces tA = 1 −12 3 4 0 3×2 (•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz siḿetrica si es igual a su transpuesta, i.e., sitA = A. Es decir, siaij = aji para todas las entradas deA. Por ejemplo, la matriz A = 1 0 10 2 0 1 0 3 3×3 es siḿetrica. EJERCICIO12. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices diagona- les, demuestre queW es un subespacio vectorial deV . 1.3. SUBESPACIOS VECTORIALES 15 EJERCICIO13. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices triangu- lares superiores, demuestre queW es un subespacio vectorial deV . EJERCICIO14. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices triangu- lares inferiores, demuestre queW es un subespacio vectorial deV . EJERCICIO15. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices simétri- cas, demuestre queW es un subespacio vectorial deV . Nota: tendŕa que probar que si A,B ∈ Matn×n(K), entonces (i) t(A+B) = tA+ tB. (ii) t(λA) = λ(tA), para todaλ ∈ K. (•) SiA = (aij)n×n es una matriz, sutraza, denotada Tr(A), es la suma de los elementos de su diagonal. Es decir, Tr(A) = Tr(aij) = ∑ i aii. Note que la traza de una matriz es un escalar. EJERCICIO 16. SiV = Matn×n(K) y W ⊆ V es el subconjunto de todas las matrices cuya traza es0, demuestre queW es un subespacio vectorial deV . EJERCICIO 17. SeaV = R2 como R-espacio vectorial. Demuestre que los conjuntos siguientes son subespacios vectoriales deV : (i) W = {(x, y) ∈ R2 : x = y}. (ii) W = {(x, y) ∈ R2 : x+ y = 0}. (iii) W = {(x, y) ∈ R2 : x+ 4y = 0}. EJERCICIO 18. SeaV = R3 como R-espacio vectorial. Demuestre que los conjuntos siguientes son subespacios vectoriales deV : (i) W = {(x, y, z) ∈ R3 : x+ y + z = 0}. (ii) W = {(x, y, z) ∈ R3 : x = y & 2y = z}. (iii) W = {(x, y, z) ∈ R3 : x+ y = 3z}. EJERCICIO19. SeaV = Matn×n(K). Demuestre que el subconjuntoW ⊆ V de matrices cuya diagonal consiste de ceros, es un subespacio vectorial deV . Operaciones con subespacios vectoriales.Dado unK-espacio vectorialV , sus subespa- cios vectoriales son subconjuntos deV y aśı podemos considerar su intersección y su uníon penśandolos como conjuntos. La pregunta natural en este contexto es: ¿dadosW1,W2 su- bespacios vectoriales deV , seŕa cierto queW1 ∩W2 óW1 ∪W2 tambíen son subespacios vectoriales deV ? La respuesta es afirmativa en el caso de la intersección y negativa en general para la unión: Lema 1.9. Si V es unK-espacio vectorial yW1,W2 subespacios vectoriales deV , en- toncesW1 ∩W2 tambíen es un subespacio vectorial deV . 16 1. ESPACIOS VECTORIALES DEMOSTRACIÓN. ComoW1 y W2 son subespacios deV , entonces0V ∈ W1 ∩W2. Si u, v ∈ W1 ∩W2, entonces por definición de intersección u, v ∈ W1 y u, v ∈ W2, por lo queu + v ∈ W1 y u + v ∈ W2 ya queW1 y W2 son cerrados bajo la suma de vectores. Se sigue queu + v ∈ W1 ∩W2. Similarmente, siw ∈ W1 ∩W2, entoncesw ∈ W1 y w ∈ W2 y aśı, para cualquierescalarλ se tiene queλw ∈ W1 y λw ∈ W2 ya que ambos son subespacios. Se sigue queλw ∈W1 ∩W2. � EJERCICIO 20. SiWα, paraα ∈ I, es una familia de subespacios vectoriales de unK- espacio vectorialV , demuestre que ⋂ α∈I Wα es un subespacio vectorial deV . Ejemplo 13. Si V = R2, W1 = ejeX y W2= ejeY son los subespacios vectoriales del ejemplo 12, entoncesW1∪W2 consiste de los dos ejes coordenados deR2. Note ahora que W1 ∪W2 no es cerrado bajo sumas de vectores, por ejemplo, si(2, 0) ∈W1 y (0, 3) ∈W2 se tiene que(2, 0) + (0, 3) = (2, 3) 6∈W1 ∪W2. Suma de subespacios.Habiendo observado que la unión de subespacios en general no es un subespacio del espacio vectorialV dado y pensando en el ejemplo 13 anterior, es fácil notar que la uníon de dos subespacios vectoriales contiene al vector0V y es cerrado bajo el producto por escalares, siendo loúnico que falla la cerradura bajo la suma de vectores. Entonces siagrandamosla uniónW1 ∪W2 añadiendo las sumas de vectores de la forma w1 + w2 conw1 ∈ W1 y w2 ∈ W2, debemos obtener un subespacio vectorial deV . La definición formal es como sigue: dados dos subespacios vectorialesW1 y W2 de V , se define el conjunto W1 +W2 := {w1 + w2 : w1 ∈W1 y w2 ∈W2} notando que comow1, w2 ∈ V , entoncesw1 + w2 ∈ V , por lo queW1 + W2 es un subconjunto deV . Lema 1.10. SeanW1 y W2 subespacios vectoriales deV . Entonces,W1 + W2 es un subespacio vectorial deV y contiene a la uníonW1 ∪W2. DEMOSTRACIÓN. Note queW1 ⊆W1+W2 ya que siw1 ∈W1, entoncesw1 = w1+0V ∈ W1+W2. SimilarmenteW2 ⊆W1+W2. Se sigue queW1∪W2 ⊆W1+W2, en particular 0V ∈W1 +W2. Probaremos queW1 +W2 es cerrado bajo sumas. En efecto, siw1 + w2 y u1 + u2 son dos elementos deW1 +W2, entonces (w1 + w2) + (u1 + u2) = (w1 + u1) + (w2 + u2) conw1+u1 ∈W1 yw2+u2 ∈W2 y aśıW1+W2 es cerrado bajo sumas. Probaremos ahora queW1+W2 es cerrado bajo el producto de escalares: seanλ ∈ K y w1+w2 ∈W1+W2; entonces, λ(w1 + w2) = λw1 + λw2 ∈W1 +W2 ya queλw1 ∈W1 y λw2 ∈W2 porque estos son subespacios. � Ejemplo 14. EnV = R3 considere los subespacios vectoriales siguientes:U el planoXY y W el planoY Z, es decir, U = {(x, y, 0) ∈ R3} y W = {(0, y, z) ∈ R3}. 1.3. SUBESPACIOS VECTORIALES 17 Entonces,R3 = U +W ya que siv = (a, b, c) ∈ R3 es cualquier vector, v = (a, b, c) = (a, b, 0) + (0, 0, c) con(a, b, 0) ∈ U y (0, 0, c) ∈W. Suma directa de subespacios.Note que, en el ejemplo anterior, la descomposición dev como suma de un vector deU y de un vector deW , en general,no esúnica; por ejemplo, v = (1, 2, 3) = (1, 2, 0) + (0, 0, 3) = (1, 1, 0) + (0, 1, 3). Proposición 1.11. SeaV unK-espacio vectorial y seanU,W subespacios deV . Enton- ces, todo elementov ∈ V se puede escribir en formáunica comov = u+ w conu ∈ U y w ∈W si y śolo si se satisfacen las dos condiciones: (i) U +W = V . (ii) U ∩W = {0V }. DEMOSTRACIÓN. Supongamos que (i) y (ii) son ciertas. ComoV = U + W , entonces para todov ∈ V existenu ∈ U y w ∈ W tales quev = u + w. Supongamos ahora que se tiene otra descomposición dev comov = u′ + w′ conu′ ∈ U y w′ ∈ W . Entonces, u+ w = u′ + w′ y aśı u− u′ = w′ − w, conu−u′ ∈ U yw′−w ∈W . La igualdad anterior nos dice queu−u′ = w′−w ∈W por lo queu−u′ ∈W y aśı u−u′ ∈ U∩W = {0V }. Similarmente,w′−w ∈ U∩W = {0V }. Se sigue queu − u′ = 0V = w′ − w y por lo tantou = u′ y w = w′, i.e., las dos descomposiciones dev eran la misma. Supongamos ahora que todo vectorv ∈ V se puede escribir en formáunica como v = u + w conu ∈ U y w ∈ W , entonces (i) se satisface. Para probar (ii), supongamos quev ∈ U ∩W . Entonces,v ∈ U y v ∈W por lo que v = v + 0V conv ∈ U y 0V ∈W = 0V + v con0V ∈ U y v ∈W y como la descomposición dev debe seŕunica, se sigue quev = 0V , y por lo tanto U ∩W = {0V }. � Definición 1.12. SeaV unK-espacio vectorial. SiU,W son subespacios deV tales que: (i) U +W = V . (ii) U ∩W = {0V }, diremos queV essuma directade los subespaciosU y W , y lo denotaremos mediante V = U ⊕W. EJERCICIO21. SeanV = K[x], U ⊆ V el conjunto de polinomiosf(x) = a0 + a1x + a2x 2 + · · · + anxn tales queai = 0 para todos lośındicesi pares, yW ⊆ V el conjunto de polinomiosg(x) = a0 + a1x + a2x2 + · · · + amxm tales queai = 0 para todos los ı́ndicesj impares. (i) Muestre queU y W son subespacios vectoriales deV . (ii) Demuestre queV = U ⊕ V . EJERCICIO22. Recuerde que una matriz cuadradaA se dice que essimétrica si su trans- puesta es ella misma:tA = A. La matrizA se dice que esantisiḿetricasi tA = −A. 18 1. ESPACIOS VECTORIALES (i) SeanV = Mat2×2(K), U ⊆ V el subconjunto de matrices2 × 2 simétricas y W ⊆ V el subconjunto de matrices antisimétricas. (a) Muestre queU y W son subespacios vectoriales deV . (b) Demuestre queV = U ⊕W . (ii) SeanV = Matn×n(K),U ⊆ V el subconjunto de matrices simétricas yW ⊆ V el subconjunto de matrices antisimétricas. (a) Muestre queU y W son subespacios vectoriales deV . (b) Demuestre queV = U ⊕W . Sugerencia: siA ∈ Matn×n(K), muestre que12 (A+ tA) es siḿetrica. EJERCICIO23. SeaV = Matn×n(K) y considere los subconjuntos U := {(aij) ∈ Matn×n(K) : aij = 0 ∀i > j} y W := {(bij) ∈ Matn×n(K) : bij = 0 ∀i ≤ j}. (i) Muestre queU y W son subespacios vectoriales deV . (ii) Demuestre queV = U ⊕W . 1.4. Combinaciones lineales Si en elR-espacio vectorialR3 fijamos un vectoru = (a, b, c) distinto de0 y conside- ramos el conjunto de todos los múltiplos escalares deu: L := {λu : λ ∈ R}, este subconjunto es una lı́nea recta enR3 que pasa por el origen en la dirección del vector u: ◦ - 6 � � � L �� �� �� �� � y, de hecho,L es un subespacio vectorial deR3, como se comprueba fácilmente. Si ahora consideramos dos vectoresu y v enR3, digamos no colineales, y considera- mos el conjunto de todas las sumas de los múltiplos escalares deu y los múltiplos escalares dev: P := {λu+ γv : λ, γ ∈ R}, este subconjunto es un plano enR3 que pasa por el origen y contiene a los extremos de los vectoresu y v: ◦ - 6 � � � P �� �� �� �� �� @ @@ �� �� �� �� �� @ @@ 1.4. COMBINACIONES LINEALES 19 y, de hecho,P es un subespacio vectorial deR3, como se comprueba fácilmente. Definición 1.13. Si V es unK-espacio vectorial yv1, . . . , vn es un conjunto finito de vectores deV , unacombinacíon linealde los vectoresv1, . . . ,vn es un vector de la forma: a1v1 + a2v2 + · · ·+ anvn ∈ V con escalaresaj ∈ K. Un vectorv ∈ V se dice que escombinacíon lineal de los vectoresv1, . . . , vn, si existen escalaresa1, . . . , an enK tales que v = a1v1 + a2v2 + · · ·+ anvn. Ejemplo 15. El vector0V ∈ V es combinacíon lineal de cualquier conjunto (finito) de vectoresv1, . . . ,vn deV ya que 0V = 0 · v1 + · · ·+ 0 · vn. Ejemplo 16. Si V = R2 y v1 = (1, 0), v2 = (1, 1), entonces el vectoru = (3, 4) es combinacíon lineal dev1 y v2 ya que u = (3, 4) = −1 · (1, 0) + 4 · (1, 1) = −1 · v1 + 4 · v2. Ejemplo 17. SiV = Pn(K) es el espacio vectorial de los polinomios en una variablex, con coeficientes en un campoK y de grado≤ n, y si v0 = 1, v1 = x, v2 = x2, . . . ,vn = xn son vectores dePn(K), entonces todo polinomiof(x) = a0 +a1x+a2x2 + · · ·+anxn ∈ Pn(K) es combinacíon lineal de los vectoresv0, . . . ,vn, ya que f(x) = a0 · 1 + a1 · x+ a2 · x2 + · · ·+ an · xn es la combinación lineal requerida, con los escalares los coeficientesaj del polinomio dado. Ejemplo 18. Si V = R2 y e1 = (1, 0), e2 = (0, 1), entonces todo vectoru = (a, b) ∈ R2 es combinacíon lineal dee1 y e2 ya que u = (a, b) = (a, 0) + (0, b) = a · (1, 0) + b · (0, 1) = a · e1 + b · e2. Sistemas de ecuaciones lineales y combinaciones lineales.Si consideramos un sistema de ecuaciones lineales, digamos con coeficientes enR, pero v́alido para cualquier campo K: a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm considerando los vectores columna (enRm óKm) dados por los coeficientesaij del siste- ma anterior y el vector columna de los términos independientesbi: 20 1. ESPACIOS VECTORIALES C1 = a11 a21 ... am1 , C2 = a12 a22 ... am2 , · · · , Cn = a1n a2n ... amn , b = b1 b2 ... bm y pensando a las incógnitasx1, . . . , xn como escalares deR (ó deK), en notacíon vectorial el sistema de ecuaciones anterior se puede escribir como x1 · a11 a21 ... am1 + x2 · a12 a22 ... am2 + · · ·+ xn · a1n a2n ... amn = b1 b2 ... bm , o, denotando a las columnas de coeficientes medianteC1, . . . ,Cn y a la columna de térmi- nos independientes porb, la combinacíon lineal anterior se puede escribir como (∗) x1C1 + x2C2 + · · ·+ xnCn = b y cuando nos preguntamos si el sistema de ecuaciones dado tiene o no soluciones, en térmi- nos de la combinación lineal (∗) nos estamos preguntando si el vector columna de términos independientesb es o no combinación lineal de los vectores columna de coeficientesC1, . . . ,Cn. Aśı, el problema de resolver un sistema de ecuaciones lineales se ha convertido en el problema de determinar cuándo un vector dado es o no combinación lineal de otros vectores dados, y los dos problemas son equivalentes. Conviene entonces saber quién es el subconjunto formado por todas las combinaciones lineales de los vectoresC1, . . . ,Cn, para saber si el vectorb pertenece o no a este conjunto. Antes de continuar, notemos que todavı́a no hemos encontrado un método para resol- ver sistemas de ecuaciones lineales, pero hemos reinterpretado el problema en un contexto que nos seŕa útil para el procedimiento que daremos más adelante. Subespacios generados por un subconjunto de vectores.Al principio de esta sección vimos dos ejemplos enR3 donde todas las combinaciones lineales de un vector (respecti- vamente, dos vectores) deR3 generaban un subespacio vectorial deR3, a saber, una lı́nea rectaL (respectivamente, un planoP). Que esto es cierto en general es el contenido de la proposicíon siguiente: Proposición 1.14. SeanV unK-espacio vectorial yv1, . . . , vn vectores dados deV . Si K(v1, . . . , vn) es el subconjunto deV dado por las todas las combinaciones lineales de los vectoresv1, . . . , vn: K(v1, . . . , vn) := {α1v1 + · · ·+ αnvn : αi ∈ K} ⊆ V, entoncesK(v1, . . . , vn) es un subespacio vectorial deV . Al subespacioK(v1, . . . , vn) se le llamaŕa elsubespacio generadopor los vectoresv1, . . . , vn. DEMOSTRACIÓN. El vector0V ∈ K(v1, . . . , vn) ya que0V = 0v1 + · · ·+ 0vn. Ahora, si u ∈ K(v1, . . . , vn), entoncesu es de la formau = α1v1 + · · ·+ αnvn y aśı, paraλ ∈ K se tiene que λu = λ(α1v1 + · · ·+ αnvn) = (λα1)v1 + · · ·+ (λαn)vn 1.4. COMBINACIONES LINEALES 21 y por lo tantoλu ∈ K(v1, . . . , vn). Finalmente, siu,w ∈ K(v1, . . . , vn), entoncesu y w son de la forma u = α1v1 + · · ·+ αnvn y w = β1v1 + · · ·+ βnvn y aśı u+ w = (α1v1 + · · ·+ αnvn) + (β1v1 + · · ·+ βnvn) = (α1 + β1)v1 + · · ·+ (αn + βn)vn conαj+βj ∈ K, y por lo tantou+w tiene la forma requerida y ası́ u+w ∈ K(v1, . . . , vn). � De acuerdo a la interpretación que hicimos antes acerca de la solubilidad de un sistema de ecuaciones lineales, escrito en la forma (∗) x1C1 + x2C2 + · · ·+ xnCn = b conCj los vectores columna del sistema yb el vector columna de los términos indepen- dientes, todos ellos elementos del espacio vectorialKn, la proposicíon anterior tiene la consecuencia inmediata siguiente: Corolario 1.15. El sistema de ecuaciones lineales (∗) x1C1 + x2C2 + · · ·+ xnCn = b tiene solucíon enKn si y śolo el vector columnab pertenece al subespacio vectorial K(C1, . . . , Cn) generado por los vectores columna de los coeficientes del sistema. � La construccíon anterior, del subespacio vectorial generado por un conjunto finito de vectoresv1, . . . , vn, se puede generalizar para considerar el subespacio generado por un subconjunto arbitrario de vectores deV : dado un subconjunto no vacı́oS ⊆ V , denotamos conK(S) al subconjunto de combinaciones lineales finitas de vectores deS, i.e., K(S) := {λ1w1 + · · ·+ λkwk : λj ∈ K y w1, . . . , wk ∈ S}. Observe queS ⊆ K(S) ya que cadaw ∈ S se puede escribir como la combinación lineal w = 1 · w conw ∈ S. Note que áun cuandoS puede tener un ńumero infinito de vectores,K(S) se define con combinaciones lineales de subconjuntos finitos deS. Consecuentemente, la demostración de la proposición anterior sigue siendo válida para K(S) y por lo tantoK(S) es un subespacio vectorial deV . Más áun,K(S) es elmenor subespacio vectorial deV que contiene aS: Proposición 1.16. Si V es unK-espacio vectorial yS ⊆ V es cualquier subconjunto, entonces K(S) = ⋂ S⊆W⊆V W, donde la intersección es sobre todos los subespacios vectorialesW deV que contienen a S. DEMOSTRACIÓN. ComoK(S) es un subespacio vectorial que contiene aS, entonces K(S) es uno de losintersectandosy por lo tantoK(S) contiene a la intersección de la proposicíon. Rećıprocamente, siW es un subespacio vectorial tal queS ⊆ W , entonces para cualquier elementov = λ1w1 + · · ·+λkwk deK(S), como loswj ∈ S ⊆W y como 22 1. ESPACIOS VECTORIALES W es subespacio vectorial, entoncesW contiene a cualquier combinación lineal de ele- mentos deW , y por lo tantov ∈ W . Hemos aśı mostrado queK(S) ⊆ W para cualquier subespacioW que contiene aS. Se sigue queK(S) ⊆ ⋂ S⊆W⊆V W , como se querı́a. � Definición 1.17. Si S ⊆ V es cualquier subconjunto no vacı́o, al subespacio vectorial K(S) de la proposicíon anterior se le llama elsubespacio vectorial generadoporS. Si S = ∅, se extiende la definición anterior poniendoK(∅) := {0V }, el subespacio que consta śolo del vector cero. Ejemplo 19. Al principio de esta sección, paraV = R3, vimos que el subespacio generado por un vectorv 6= 0 es una recta que pasa por el origen:R(v) = L. Tambíen vimos que si u y v son dos vectores no colineales deR3, el subespacio generado por estos dos vectores es un plano que pasa por el origen:R(u, v) = P. Ejemplo 20. Si V = R2 y e1 = (1, 0), e2 = (0, 1), en el ejemplo 18 vimos que el subespacio generado pore1 y e2 es todoR2. Definición 1.18. SeaV unK-espacio vectorial. Si para un subconjuntoS ⊆ V se tiene queK(S) = V , diremos queS generaal espacio vectorialV . Tambíen diremos que los vectores deS songeneradoresdeV . Con esta definición, el ejemplo 20 nos dice que los vectorese1 = (1, 0) y e2 = (0, 1) generanR2. Ejemplo 21. Si V = R3, los vectorese1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) son generadores deR3. El argumento es similar al del ejemplo 20. Ejemplo 22. En general, enRn, los vectorese1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . .), . . . , en = (0, . . . , 0, 1) (dondeek tiene un1 en el lugark y ceros en las otras componentes), generanRn. Ejemplo 23. Si V = K[x], los vectores1, x, x2, . . . , xn, . . ., generanK[x] ya que todo polinomiof(x) = a0 + a1x + a2x2 + · · · + anxn es combinacíon lineal de algunos de los vectores1, x, x2, . . . , xn, . . . usando los coeficientes def(x) como los escalares de la combinacíon lineal, como en el ejemplo 17. Ejemplo 24. Los vectoresv1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (1, 1, 0) no generana R3, ya que cualquier combinación lineal de ellos tiene la tercera coordenada igual a cero y por lo tanto ninǵun vector deR3 cuya tercera coordenada sea6= 0 es combinacíon lineal de v1, v2, v3. Ejemplo 25. Si V es cualquierK-espacio vectorial, el conjuntoS = V genera aV ya que todov ∈ V se puede escribir como la combinación linealv = 1 · v. EJERCICIO 24. SeaV un K-espacio vectorial. SiS ⊆ T son dos subconjuntos deV , demuestre queK(S) ⊆ K(T ). EJERCICIO25. SiS ⊆ V genera aV y T ⊆ V es otro conjunto tal queS ⊆ T , demuestre queT tambíen genera aV . EJERCICIO26. SiW es un subespacio vectorial de unK-espacio vectorialV , demuestre queK(W ) = W . 1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 23 EJERCICIO27. SeaV = Mat2×2(R). Demuestre que las matrices siguientes generan aV :( 1 0 0 0 ) , ( 0 1 0 0 ) , ( 0 0 1 0 ) , ( 0 0 0 1 ) . EJERCICIO28. SeaV = P2(K) el espacio vectorial de los polinomios con coeficientes en un campoK y de grado≤ 2. Muestre que los polinomios1, 1 + x, 1 + x+ x2, generan a V . EJERCICIO29. SiV es cualquierK-espaciovectorial, ¿cuál es el subespacio generado por S = {0V }? EJERCICIO30. SiV = K (el campoK, considerado comoK-espacio vectorial), muestre que1 ∈ K genera aV . ¿Puede dar otros subconjuntos que generan aV ? Explique. EJERCICIO31. SeaV = R2. (i) Si U = R(2, 1) es el subespacio deV generado por(2, 1) y W = R(0, 1) es el subespacio deV generado por(0, 1), demuestre queR2 = U ⊕W . (ii) Si U ′ = R(1, 1) es el subespacio deV generado por(1, 1) y W ′ = R(1, 0) es el subespacio deV generado por(1, 0), demuestre queR2 = U ′ ⊕W ′. EJERCICIO 32. SeaV = R3. SeanU = R(1, 0, 0) el subespacio deV generado por (1, 0, 0) yW = R{(1, 1, 0), (0, 1, 1)} el subespacio deV generado por(1, 1, 0) y (0, 1, 1). (i) Grafique estos subespacios. (ii) Demuestre queR3 = U ⊕W . 1.5. Dependencia e independencia lineal El ejemplo 25 de la sección anterior nos dice que dado cualquierK-espacio vectorial V , siempre hay un conjunto de generadoresS deV , a saberS = V . El ejercicio 25 por su parte nos dice que siS genera al espacioV , entonces cualquier conjunto que contenga a S tambíen genera aV ; aśı, el problema no esagrandarun conjunto que genere aV , sino por el contrario, sabiendo que un conjuntoS genera al espacioV , el problema es hallar el conjunto con elmenornúmero de elementos que genere aV . Por ejemplo, quisiéramos hallar un subconjuntoB ⊆ S tal queB siga generando aV pero queB sea ḿınimo en el sentido de que si le quitamos cualquier vectorv ∈ B, el conjunto diferenciaB \ {v} ya no genera aV . Con esto en mente, consideremos lo que nos dice el ejercicio 25: siS ⊆ V genera aV y S ⊆ T ⊆ V , entoncesT tambíen genera aV . Esta afirmacíon se sigue del ejercicio 24. Ahora, comoK(S) = V y T ⊆ V , entonces todos los elementos deT pertenecen aK(S), i.e., son combinaciones lineales de elementos deS. Aśı, los elementos deT que seañadieronaS, i.e.,T \ S, ya eran combinaciones lineales de elementos deS y por lo tanto cada vez que un vectorv deK(T ) se expresa como combinación lineal de elementos deT , digamos (∗) v = a1w1 + · · ·+ akwk conaj ∈ K, wj ∈ T , si sucediera que alguno de los vectoreswj deT est́a enT \ S, escribíendolo como combi- nacíon lineal de elementos deS: wj = α1u1 + · · ·+ αrur conui ∈ S 24 1. ESPACIOS VECTORIALES y substituyendo esta expresión parawj en (∗), tendremos quev es combinacíon lineal de elementos deS. En otras palabras, los elementos deT \ S no aportan nuevos vectores al considerar combinaciones lineales donde aparezcan porque los elementos deT \ S ya son combinaciones lineales deS. Para expresar esto diremos que los vectores deT \ S son linealmente dependientes deS; en forma precisa: Definición 1.19. SeaT ⊆ V un subconjunto no vacı́o de un espacio vectorialV . Diremos queT eslinealmente dependientesi existe alǵun vectorv ∈ T que es combinación lineal de los otros vectores deT , es decir, siv ∈ K(T \ {v}). Observaciones.(1). Note queno estamos pidiendo quetodos los vectoresu ∈ T sean elementos del correspondiente subespacioK(T \ {u}); lo que estamos pidiendo es que algún vectorv ∈ V satisfaga quev ∈ K(T \ {v}). (2). En la definicíon anterior, al decir quev sea combinación lineal de losotros vectoresde T , la redaccíon se preciśo diciendo que esto significa quev ∈ K(T \{v}). Esta precisíon es necesaria para tomar en cuenta el caso extremo cuandoT = {0V } en el ejemplo siguiente: Ejemplo 26. Si V es unK-espacio vectorial yT ⊆ V es un subconjunto tal que0V ∈ T , entoncesT es linealmente dependiente. En efecto, siT = {0V }, se tiene que 0V ∈ {0V } = K(∅) = K(T \ {0V }), donde se uśo la convencíon de queK(∅) = {0V }. SiT 6= {0V }, entonces existe unv 6= 0V enT y se tiene que0V = 0·v es combinacíon lineal dev ∈ T \ {0V }. Ejemplo 27. EnR2 el conjunto de vectoresv1 = (1, 0), v2 = (0, 1), v3 = (3, 4) es lineal- mente dependiente ya que v3 = (3, 4) = 3(1, 0) + 4(0, 1) = 3v1 + 4v2. Ejemplo 28. EnR2 el conjunto de vectoresv1 = (1, 0), v2 = (0, 1), v3 = (3, 0) es lineal- mente dependiente ya que v3 = (3, 0) = 3(1, 0) + 0(0, 1) = 3v1 + 0v2. Note que aqúı v2 = (0, 1) no es combinación lineal dev1 y v3 ya que cualquier combinacíon deéstos tiene la segunda coordenada igual a0. La proposicíon siguiente nos da una caracterización muyútil de los conjuntos lineal- mente dependientes: Proposición 1.20. SeanV unK-espacio vectorial yT ⊆ V un subconjunto. Las afirma- ciones siguientes son equivalentes: (1) El conjuntoT es linealmente dependiente. (2)El vector0V se puede expresar como combinación lineal de algunos vectoresv1, . . . , vn enT : 0V = a1v1 + · · ·+ anvn, con alguno de los escalaresaj 6= 0 . 1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 25 Nota: dado cualquier conjunto finito de vectoresv1, . . . , vn, el vector0V siemprees com- binacíon lineal de estos vectores ya que (†) 0V = 0v1 + · · ·+ 0vn, y decimos que la combinación lineal (†), donde todos los escalares son0, es la combinación lineal obvia o trivial. Lo que la parte (2) de la proposición pide es que0V se pueda expresar como una combinación lineal no trivial, es decir, que no todos los coeficientes sean el escalar0. DEMOSTRACIÓN. (1) ⇒ (2): Si 0V ∈ T , se tiene la combinación lineal no trivial0V = 1 · 0V con0V ∈ T . Si 0V 6∈ V , comoT es linealmente dependiente, existe unv 6= 0V en T que es combinación lineal de los otros elementos deT , i.e.,v ∈ K(T \ {v}). Note que K(T \ {v}) 6= {0V } ya quev ∈ T ⊆ K(T \ {v}). Aśı, existen vectoresv1, . . . , vm ∈ T tal que v = a1v1 + · · ·+ amvm y por lo tanto 0V = (−1)v + a1v1 + · · ·+ amvm es una combinación lineal con el coeficiente−1 dev ∈ T distinto de0. (1) ⇒ (2): Supongamos ahora que existen vectoresv1, . . . , vn ∈ T y escalaresa1, . . . , an enK no todos cero, tal que (∗) 0V = a1v1 + · · ·+ anvn. Reordenando si hiciera falta, podemos suponer quea1 6= 0; multiplicando (∗) pora−11 ∈ K se tiene que 0V = a−11 · 0V = a −1 1 (a1v1 + · · ·+ anvn) = v1 + (a−11 a2)v2 + · · ·+ (a −1 1 an)vn de donde, despejando, v1 = (−a−11 a2)v2 + · · ·+ (−a −1 1 an)vn, es decir,v1 es combinacíon lineal dev2, . . . , vn ∈ T \ {v1}. � Ejemplo 29. EnR2 los vectorese1 = (1, 0) y e2 = (0, 1) no son linealmente dependientes ya que si0 = λ1e1 + λ2e2, entonces (0, 0) = λ1(1, 0) + λ2(0, 1) = (λ1, 0) + (0, λ2) = (λ1, λ2) y por lo tantoλ1 = 0 y λ2 = 0. Es decir, láunica combinacíon lineal dee1 y e2 que da el vector0 es la combinación lineal trivial. Definición 1.21. SeaV unK-espacio vectorial. SiT ⊆ V es un subconjunto, diremos que T eslinealmente independientesi T no es linealmente dependiente. También diremos que los vectores deT son linealmente independientes. En vista de la proposición 1.18 la definicíon anterior es equivalente a: Corolario 1.22. SeaV unK-espacio vectorial. SiT ⊆ V es un subconjunto, entonces T es linealmente independiente si y sólo si la única representación del vector0V como combinacíon lineal de elementos deT es la trivial, i.e., si 0V = a1v1 + · · ·+ anvn, convj ∈ T , entoncesa1 = · · · = an = 0. � 26 1. ESPACIOS VECTORIALES El ejemplo 29 nos dice quee1 y e2 son linealmente independientes enR2. Ejemplo 30. SeaV un K-espacio vectorial. Siv ∈ V con v 6= 0V , entonces{v} es linealmente independiente ya que siλv = 0V es cualquier combinación lineal dev que da el vector0V , y si sucediera queλ 6= 0, entonces multiplicando porλ−1 ∈ K se obtiene que λ−1(λv) = λ−10V = 0V , i.e.,v = λ−1(λv) = 0V , en contradiccíon con serv 6= 0V . Ejemplo 31. Al conjunto vaćıo ∅ lo consideraremos linealmente independiente ya que para que un conjunto sea linealmente dependiente tiene que tener vectores. Ejemplo 32. EnK[x] los vectores1, x, x2, . . . , xn son linealmente independientes, ya que si (∗) a0 · 1 + a1 · x+ a2 · x2 + · · ·+ an · xn = 0 es cualquier combinación lineal de ellos que nos da el vector0 ∈ K[x], como el vector0 deK[x] es el polinomio cero y como en (∗) a la izquierda se tiene el polinomioa0 +a1x+ a2x 2 + · · ·+ anxn, éste es cero si y sólo si todos sus coeficientes son0, i.e.,aj = 0 para todaj y por lo tanto los vectores1,x, x2, . . . , xn son linealmente independientes. Las propiedades siguientes son inmediatas: Proposición 1.23. SeaV unK-espacio vectorial. (1) Si T1 ⊆ T2 ⊆ V son subconjuntos yT1 es linealmente dependiente, entoncesT2 tambíen lo es. (2) Si T1 ⊆ T2 ⊆ V son subconjuntos yT2 es linealmente independiente, entoncesT1 tambíen lo es. DEMOSTRACIÓN. (1): ComoT1 es linealmente dependiente, el vector0V se puede expre- sar como (∗) 0V = a1v1 + · · ·+ anvn con alǵun aj 6= 0 y los vj ∈ T1. Pero comoT1 ⊆ T2, entonces losvj ∈ T2 y aśı (∗) nos dice queT2 es linealmente dependiente. La parte (2) se sigue de (1). � EJERCICIO33. Muestre que los vectores deR2 siguientes son linealmente independientes: (i) u = (1, 0), v = (1, 1). (ii) u = (2, 1), v = (1, 0). (iii) u = (1, 2), v = (1, 3). (iv) u = (3, 1), v = (0, 2). EJERCICIO34. Muestre que los vectores deR3 siguientes son linealmente independientes: (i) u = (1, 1, 1), v = (0, 1,−2). (ii) u = (−1, 1, 0), v = (0, 1, 2). (iii) u = (1, 1, 0), v = (1, 1, 1), w = (0, 1,−1). (iv) u = (0, 1, 0), v = (0, 2, 1), w = (1, 5, 3). EJERCICIO35. Muestre que los vectores deR2 siguientes son linealmente dependientes, expresando av como combinacíon lineal dea y b: 1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 27 (i) v = (1, 0); a = (1, 1), b = (0, 1). (ii) v = (2, 1); a = (1, 0), b = (1, 1). (iii) v = (1, 2); a = (2, 1), b = (1,−1). (iv) v = (3, 4); a = (0, 12), b = (6, 0). EJERCICIO 36. SeaV = F(R,R) el R-espacio vectorial de funcionesf : R → R, t 7→ f(t). Muestre que los vectores siguientes son linealmente independientes: (i) v = 1, w = t. (ii) v = t, w = t2. (iii) v = t, w = et. (iv) v = sen t, w = cos t. (v) v = sen t, w = t. (vi) v = sen t, w = sen(2t). (vii) v = cos t, w = cos(3t). (viii) v = t2, w = et. EJERCICIO37. SeaV como en el ejercicio anterior. Demuestre que las funciones v1 = sen t, v2 = sen(2t), v3 = sen(3t), . . . , vn = sen(nt) son linealmente independientes, para cualquier naturaln ∈ N. EJERCICIO 38. SeaV cualquierK-espacio vectorial. Siu, v ∈ V conv 6= 0V y si u, v son linealmente dependientes, demuestre que existe un escalarλ ∈ K tal queu = λv. EJERCICIO39. En elR-espacio vectorialP3(R), determine si el polinomiof(x) dado se puede expresar como combinación lineal deg(x) y h(x): (i) f(x) = x3 − 3x+ 5; g(x) = x3 + 2x2 − x+ 1, h(x) = x3 + 3x2 − 1. (ii) f(x) = 4x3 + 2x2 − 6; g(x) = x3 − 2x2 + 4x+ 1, h(x) = 3x3 − 6x2 + x+ 4. (iii) f(x) = x3+x2+2x+13; g(x) = 2x3−3x2+4x+1, h(x) = x3−x2+2x+3. (iv) f(x) = x3 − 8x2 + 4x; g(x) = x3 − 2x2 + 3x− 1, h(x) = x3 − 2x+ 3. EJERCICIO40. SeaV unK-espacio vectorial y seaT ⊆ V . Demuestre queT es lineal- mente independiente si y sólo si todo subconjunto deT es linealmente independiente. EJERCICIO 41. SeaV = C∞(R,R) el conjunto de funcionesf : R → R tales quef es diferenciable (i.e., para todox ∈ R, existen todas las derivadasf ′(x), f ′′(x), f ′′′(x), . . . , f (k)(x), . . .). Muestre queV es unR-espacio vectorial. Sif(t) = ert y g(t) = est, conr 6= s enR, demuestre que{f, g} es linealmente independiente. EJERCICIO 42. SeaA = (aij)n×n una matriz cuadrada con entradas en un campoK y suponga queA es una matriz triangular superior. Demuestre que los vectores columna de A, vistos como vectores enKn, son linealmente independientes. EJERCICIO43. SeaPn(R) el R-espacio vectorial de polinomios de grado≤ n con coefi- cientes reales y seaf(x) ∈ Pn(R) un polinomio de gradon. Demuestre que f(x), f ′(x), f ′′(x), . . . , f (n)(x) generanPn(R). 28 1. ESPACIOS VECTORIALES EJERCICIO44. SiV = K[x], seaS = {f1, . . . , fn} ⊆ V un conjunto de polinomios no nulos tales que sus grados son distintos: gr(fi) 6= gr(fj) para todai 6= j. Demuestre que S es linealmente independiente. 1.6. Bases y dimensión Si V es unK-espacio vectorial, sabemos que siempre existe un subconjuntoT ⊆ V que genera aV , a saberT = V , y sabiendo queT genera aV quisíeramos encontrar un subconjuntoB ⊆ T tal queB siga generando aV pero queB seaḿınimoen el sentido de que si le quitamos cualquier vectorv ∈ B, el conjuntoB \ {v} ya no genera aV . Seǵun lo que hemos estudiado en la sección anterior, siT es linealmente dependiente, le podemos quitar vectores y el conjunto que resulta sigue generando aV . El lema siguiente captura lo que est́a detŕas de las observaciones anteriores: Lema 1.24. SeaV un K-espacio vectorial. SiB ⊆ V es un subconjunto ḿınimo de generadores deV , entoncesB es linealmente independiente. DEMOSTRACIÓN. Si B fuera linealmente dependiente, existirı́a un vectorv ∈ B que es combinacíon lineal de los otros elementos deB, i.e., v ∈ K(B \ {v}). Ahora, como B \ {v} ⊆ K(B \ {v}), entoncesB ⊆ K(B \ {v}) y comoK(B) = V , entonces K(B \ {v}) = V , es decir,B \ {v} genera aV , en contradiccíon con la minimalidad de B. � Definición 1.25. SiV es unK-espacio vectorial, unabasedeV es un subconjuntoB ⊆ V tal que: (i) B genera aV , (ii) B es linealmente independiente. Aśı, el lema anterior nos dice que todo subconjunto mı́nimo de generadores deV es una base. El recı́proco tambíen es cierto: Proposición 1.26. SeanV unK-espacio vectorial yB ⊆ V un subconjunto. Entonces,B es un subconjunto ḿınimo de generadores deV si y śolo siB es base deV . DEMOSTRACIÓN. Para probar la implicación faltante, supongamos queB es una base de V pero que no es un subconjunto mı́nimo de generadores. Entonces, existev ∈ B tal que B \ {v} genera aV y por lo tantov ∈ K(B \ {v}) = V y consecuentementeB no seŕıa linealmente independiente. Una contradicción. � En t́erminos de subconjuntos de vectores linealmente independientes deV , se tiene una caracterización de bases análoga a la de la proposición anterior, pero antes necesitare- mos un resultado preliminar: Lema 1.27. SeanV un K-espacio vectorial yT ⊆ V un subconjunto linealmente in- dependiente. Seav ∈ V \ T . Entonces,T ∪ {v} es linealmente dependiente si y sólo si v ∈ K(T ). DEMOSTRACIÓN. SiT∪{v} es linealmente dependiente, entonces existen vectoresu1, . . ., un enT ∪ {v} tales que (1) a1u1 + · · ·+ anun = 0V con alǵun coeficienteaj 6= 0. ComoT es linealmente independiente, no puede suceder que todos los vectoresuj anteriores estén enT y por lo tanto alguno de ellos debe serv. 1.6. BASES Y DIMENSÍON 29 Sin perder generalidad, supongamos queu1 = v. Aśı, la igualdad (1) es: (2) a1v + a2u2 + · · ·+ anun = 0V , con alǵunaj 6= 0. De nuevo, no puede suceder quea1 = 0 ya que (2) implicaŕıa entonces queu2, . . . , un es linealmente dependiente, en contradicción con el hecho de queT es linealmente independiente. Se sigue quea1 6= 0 y aśı v = a−11 (a1v) = a −1 1 (−a2u2 − · · · − anun) = (−a−11 a2)u2 + · · ·+ (−a −1 1 an)un y por lo tantov ∈ K(T ). Rećıprocamente, siv ∈ K(T ), entonces existen vectoresu1, . . . , un ∈ T y escalares a1, . . . , an ∈ K tales quev = a1u1 + · · ·+ anun y aśı (3) 0V = a1u1 + · · ·+ anun + (−1)v. Ahora, comov ∈ V \ T y los uj ∈ T , entoncesv 6= uj , para todos losj, y aśı en la igualdad (3) el coeficiente dev es−1 6= 0, i.e.,T ∪ {v} es linealmente dependiente.� Supongamos ahora queB es una base de un espacio vectorialV ; entoncesB es un subconjunto ḿaximo de vectores linealmente independientes deV (en el sentido de que al agregarle cualquier otro vector deV aB, el conjunto resultante es linealmente depen- diente) ya que siv ∈ V \ B, comov ∈ V = K(B). el conjuntoB ∪ {v} el conjunto es linealmente dependiente por el lema anterior. El recı́proco tambíen es cierto: Proposición 1.28. SeanV unK-espacio vectorial yB ⊆ V un subconjunto. Entonces,B es un subconjunto ḿaximo linealmente independiente deV si y śolo siB es base deV . DEMOSTRACIÓN. Para probar la implicación faltante, supongamos queB es ḿaximo li- nealmente independiente. ComoB es linealmente independiente, para probar queB es base śolo falta probar queB genera aV . Supongamos que esto es falso, es decir, que exis- te un vectorv ∈ V tal quev 6∈ K(B). Entonces, el lema anterior implica queB ∪ {v} es linealmente independiente, en contradicción con la maximalidad deB. � Espacios vectorialesde dimensión finita. A pesar de que existen espacios vectoriales con bases infinitas, en este libro trataremos con más detalle el caso de espacios vectoriales con bases finitas y el teorema siguiente nos dice cuándo existe una tal base finita para ciertos espacios vectoriales. Teorema 1.29.SiV es unK-espacio vectorial generado por un conjunto finito de vectores T ⊆ V , entonces alǵun subconjunto deT es una base deV y, por lo tanto,V tiene una base finita. DEMOSTRACIÓN. SiT = ∅ ó T = {0V }, entoncesV = {0V } y el subconjunto∅ ⊆ T es una base finita deV . Supongamos ahora queT contiene un vector distinto de0V , digamos u1 6= 0V . Entonces,{u1} es linealmente independiente. Si{u1} es base deV ya acabamos. Si {u1} no es base deV , entonces existe unu2 ∈ T \ {u1} tal queu2 no es combinación lineal deu1 y aśı {u1, u2} es linealmente independiente. Si es base deV , ya acabamos. Si no lo es, procediendo inductivamente supongamos queB = {u1, . . . , un} ⊆ T es linealmente independiente y que es máximo con esta propiedad, es decir, para cualquier v ∈ T \B se tiene queB∪{v} es linealmente dependiente. Mostraremos queB es base de V y para esto basta probar queB genera aV . Ahora, comoT genera aV , basta entonces mostrar queT ⊆ K(B). Para esto, seav ∈ T . Si v ∈ B, entoncesv ∈ K(B). Si v 6∈ B, 30 1. ESPACIOS VECTORIALES entonces por la hiṕotesis de maximalidad sobreB se tiene queB ∪ {v} es linealmente dependiente y por el lema anterior esto implica quev ∈ K(B) como se querı́a. � El teorema siguiente captura la propiedad más importante de los espacios vectoriales que tienen una base finita: Teorema 1.30.SeaV unK-espacio vectorial y supongamos queB = {v1, . . . , vn} es un subconjunto finito deV . Entonces,B es una base deV si y śolo si cada vectorv ∈ V se puede expresar en formáunica como combinación lineal de los vectores deB, i.e., existen escalareśunicosλ1, . . . , λn enK tales que (∗) v = λ1v1 + · · ·+ λnvn. DEMOSTRACIÓN. SiB es base deV y v ∈ V , comoB genera aV , entoncesv es combi- nacíon lineal de los elementos deB, digamos (1) v = λ1v1 + · · ·+ λnvn. Supongamos que (2) v = γ1v1 + · · ·+ γnvn es otra expresión dev en t́erminos deB, con losγj ∈ K. Restando (1) y (2) se obtiene: (†) 0V = (λ1 − γ1)v1 + · · ·+ (λn − γn)vn y como los vectoresv1, . . . , vn son linealmente independientes, la igualdad (†) implica que λj −γj = 0 para todaj , y por lo tantoλj = γj , para todaj; es decir, la expresión (∗) para v esúnica. Rećıprocamente, si cadav ∈ V se puede expresar en formaúnica de la forma (∗), entoncesB genera aV y sólo falta probar queB es linealmente independiente. Pero esto es directo ya que si (3) 0V = λ1v1 + · · ·+ λnvn con losλj ∈ K, como (4) 0V = 0v1 + · · ·+ 0vn, la unicidad de la expresión de0V como combinacíon lineal de losvj , implica que los escalares en (3) y (4) son iguales, i.e.,λj = 0 para todaj, y por lo tantov1, . . . , vn son linealmente independientes. � El teorema 1.29 nos dice que todo espacio vectorial con un conjunto finito de genera- dores (a veces decimos,finitamente generadopara indicar lo anterior), tiene una base finita. A continuacíon probaremos uno de los resultados más importantes de la teorı́a que estamos desarrollando: todas las bases de un espacio vectorial finitamente generado tienen el mis- mo ńumero de elementos. La demostración esencialmente considera dos bases del espacio dado y reemplaza los vectores de una base con los de la otra. Para ver cómo se hace esto necesitaremos el lema siguiente, cuyo nombre proviene del método en su demostración: Lema 1.31(Lema de reemplazamiento). SeaV unK-espacio vectorial generado por un conjunto finito de vectoresv1, . . . , vn. Supongamos quew1, . . . , wm sonm vectores deV conm > n. Entonces, los vectoresw1, . . . , wm son linealmente dependientes. Equivalen- temente, siw1, . . . , wm son linealmente independientes, entoncesm ≤ n. 1.6. BASES Y DIMENSÍON 31 DEMOSTRACIÓN. Supongamos quew1, . . . , wm son linealmente independientes. Como v1, . . . , vn generanV , para el vectorw1 ∈ V existen escalaresa1, . . . , an enK tales que (1) w1 = a1v1 + · · ·+ anvn. Ahora, como estamos asumiendo que loswj son linealmente independientes, entonces w1 6= 0V y aśı en (1) alǵun ai 6= 0. Renumerando si hiciera falta podemos suponer que a1 6= 0 y aśı podemos despejarv1 de (1) para obtener: v1 = a−11 w1 − a −1 1 a2v2 − · · · − a −1 1 anvn, por lo quev1 ∈ K(w1, v2, . . . , vn) y aśı V = K(v1, v2, . . . , vn) ⊆ K(w1, v2, . . . , vn) ⊆ V y consecuentementeV = K(w1, v2, . . . , vn), es decir, ya reemplazamos av1 porw1 en un conjunto de generadores deV . La idea es continuar inductivamente el proceso an- terior hasta reemplazar todos los vectoresv1, v2, . . . , vn por vectoresw1, . . . , wn de tal forma que{w1, . . . , wn} todav́ıa genere aV . La base de la inducción es la substitución dev1 porw1 que hicimos antes. Supongamos ahora que ya reemplazamosk vectores de {v1, . . . , vn} por k vectores de{w1, . . . , wn} con 1 ≤ k < n. Renumerando si hicie- ra falta podemos pensar que reemplazamosv1, . . . , vk por w1, . . . , wk de tal forma que {w1, . . . , wk, vk+1, . . . , vn} generaV . Entonces, para el vectorwk+1 ∈ V existen escala- resb1, . . . , bk, ck+1, . . . , cn enK tales que (2) wk+1 = b1w1 + · · ·+ bkwk + ck+1vk+1 + · · ·+ cnvn. Observe ahora que en (2) no se puede tener que todos loscj = 0, ya que si esto sucediera (2) diŕıa quew1, . . . , wk, wk+1 son linealmente dependientes (el coeficiente dewk+1 es 1 6= 0), en contradiccíon con la suposición inicial de que loswi son linealmente indepen- dientes. Se sigue que algún ci 6= 0. Renumerando si hiciera falta podemos suponer que ck+1 6= 0 y aśı se puede despejar avk+1 de (2) para obtenervk+1 como combinacíon lineal dew1, . . . , wk, wk+1, vk+2, . . . , vn, i.e., vk+1 ∈ K(w1, . . . , wk+1, vk+2, . . . , vn), y como, por hiṕotesis de inducción K(w1, . . . , wk, vk+1, vk+2, . . . , vn) = V , se sigue quew1, . . . , wk+1, vk+2, . . . , vn generaV . Aśı, ya reemplazamos avk+1 porwk+1. Por induccíon se sigue que podemos reemplazar a todos losv1, . . . , vn porw1, . . . , wn de tal forma quew1, . . . , wn todav́ıa genere aV . Finalmente, si sucediera quem > n, entonceswm ∈ K(w1, . . . , wn) se puede escribir como w = α1w1 + · · ·+ αnwn con losαj ∈ K, y por lo tanto{w1, . . . , wn, . . . , wm} seŕıa linealmente dependiente.� La consecuencia ḿas importante de este lema y de su demostración es: Teorema 1.32. SeaV un K-espacio vectorial finitamente generado y supongamos que A = {v1, . . . , vn} yB = {w1, . . . , wm} son bases deV . Entonces,m = n. DEMOSTRACIÓN. ComoA generaV y comoB es linealmente independiente, el lema anterior nos dice quem ≤ n. Cambiando los papeles deA y B se sigue quen ≤ m y por lo tantom = n. � Gracias a este teorema tiene sentido la definición siguiente: 32 1. ESPACIOS VECTORIALES Definición 1.33. SeaV unK-espacio vectorial y supongamos queB = {v1, . . . , vn} es una base deV . Por el teorema anterior el númeron est́a uńıvocamente determinado por V . Al númeron de vectores en cualquier base deV se le llama ladimensíon del espacio vectorialV y se denotan = dimK(V ). Algunas veces decimos queV es unK-espacio vectorial dedimensíon finitan. Ejemplo 33. Si V = Kn, entoncesdimK(Kn) = n. En efecto, śolo tenemos que mostrar una base deKn conn vectores. Para esto, pongamos e1 = (1, 0, . . . , 0); e2 = (0, 1, 0, . . . , 0); . . . ; en = (0, . . . , 0, 1) enKn. Entonces, (i) Los vectorese1, . . . , en generanKn ya que siv = (a1, . . . , an) es cualquier vector de Kn, se tiene que v = (a1, . . . , an) = (a1, 0, . . . , 0) + · · ·+ (0, . . . , 0, 1) = a1(1, 0, . . . , 0) + · · ·+ an(0, . . . , 0, 1) = a1e1 + · · ·+ anen. (ii) Los vectorese1, . . . , en sonlinealmente independientesya que siα1, . . . , αn son esca- lares tales que 0 = (0, . . . , 0) = α1e1 + · · ·+ αnen = (α1, 0, . . . , 0) + · · ·+ (0, . . . , 0, αn) = (α1, . . . , αn), entoncesα1 = 0, α2 = 0, . . . ,αn = 0, por definicíon
Compartir