Logo Studenta

Álgebra Lineal - Zaldivar - Manu FI

Vista previa del material en texto

Álgebra lineal
Felipe Zald́ıvar
Departamento de Mateḿaticas
Universidad Aut́onoma Metropolitana-I
México, D.F., Ḿexico
Álgebra Lineal
Álgebra Lineal
Felipe Zald́ıvar
Primera edicíon: 2003
c© Felipe Zald́ıvar
ISBN: 970-xxx-xxx-x
Impreso en Ḿexico/Printed in Mexico
Índice general
Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .IX
Caṕıtulo 1 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Caṕıtulo 2 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Transformacíon lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3.1 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3.2 La transformación lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4 Matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Caṕıtulo 3 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.1 Solubilidad de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 Operaciones elementales y el rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3 El ḿetodo de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Caṕıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.1 Expansíon por menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2 Permutaciones y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3 Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Caṕıtulo 5 Diagonalizacíon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2 Subespacios invariantes y subespacios cı́clicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.3 Polinomios de matrices y de operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Caṕıtulo 6 Formas cańonicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.1 Triangulacíon de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2 La forma cańonica de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.3 La forma cańonica racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Caṕıtulo 7 Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
7.1 Productos internos y hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
VII
VIII ÍNDICE GENERAL
7.2 Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.3 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Caṕıtulo 8 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.1 La adjunta de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.2 Operadores audoadjuntos y normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
8.3 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.4 Operadores ortogonales y unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Caṕıtulo 9 Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.1 Funciones y formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.2 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
9.3 Formas cuadráticas sobreR. El teorema de Sylvester . . . . . . . . . . . . . . . . . . . . . . 195
9.4 Aplicaciones a la geometrı́a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Caṕıtulo 10 Álgebra multilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.1 Funciones multilineales y el producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.2 Tensores siḿetricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Bibliograf́ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Prólogo
Oh, do not ask, ‘What is it?’
Let us go and make our visit.
T. S. Eliot.
ESTAS SON LAS NOTASde los cursos déAlgebra Lineal que he enseñado en la Licencia-tura en Mateḿaticas de la UAM-I en ãnos recientes. Los prerequisitos son mı́nimos:
la asignatura deEstructuras Nuḿericases ḿas que suficiente. La idea fundamental del
curso es el estudio de la matemática alrededor del problema de resolversistemas de ecua-
ciones lineales. El libro comienza motivado poŕesto y avanza introduciendo las ideas y
métodos necesarios paraentenderel algoritmo usual para resolver sistemas de ecuaciones,
el método de eliminación gaussiana. Este es un curso para estudiantes demateḿaticas
y, aunque es elemental, todos los resultados y métodos se justifican. No es un curso de
recetas, por el contrario, es un estudio de algunas de las ideas necesarias para entender
el problema considerado. En cada momento se enfatizan los conceptos y su relación con
el problema de resolver sistemas de ecuaciones. En el capı́tulo 3, usando todas las herra-
mientas introducidas previamente, se estudia el método de Gauss para resolver sistemas
de ecuaciones, justificando el conjunto de conceptos e ideas que tuvieron que introducirse
en los dos caṕıtulos anteriores. La segunda parte del libro es un estudio elemental de los
operadores lineales en un espacio vectorial de dimensión finita y abarca desde el capı́tulo
4 donde se introduce la noción de determinante de una matriz, generalizandolos casos
2 × 2 y 3 × 3 ya conocidos desde otros cursos, para probar todas las propiedades de los
determinantes que se usarán en los caṕıtulos 5 y 6 donde se estudian formas especiales de
algunos operadores lineales: diagonalizables, triangulables, en forma canónica de Jordan
o en forma cańonica racional, todas ellos de importancia capital en la matemática. En la
tercera parte del libro se introducen estructuras especiales en los espacios vectoriales: pro-
ductos internos y productos hermitianos en el capı́tulo 7, para despúes estudiar aquellos
operadores lineales que tienen ciertas simetrı́as con respecto al los productos internos o
hermitianos considerados, en particular se obtienen criterios para la diagonalizabilidad de
algunos de estos operadores culminando con la demostración de los teoremas espectrales
correspondientes. En el capı́tulo 9 se hace un estudio elemental de funciones y formas bili-
neales, en especial formas cuadráticas, para terminar con una aplicación a la geometrı́a de
cónicas enR2 y cuádricas enR3. El caṕıtulo 10 es una introducción alálgebra multilineal.
Al lector o lectora de estas notas, se le invita a escribir al autor, a la dirección electŕoni-
ca: fzc@xanum.uam.mx con cualquier sugerencia, crı́ticas, correcciones tipográficas o
de estilo.
Puedes guardar o imprimir una copia de estas notas para tu uso personal, si ası́ lo
deseas. El autor se reserva los derechos sobre la presentación y organizacíon de los temas.
IX
Caṕıtulo 1
Espacios vectoriales
DE LAS ECUACIONES QUE HEMOS ESTUDIADO HASTA AHORA, las ḿas sencillas sonecuaciones en una variable, por ejemplo del estiloax = b. En forma natural uno
puede considerar ecuaciones en más de una variable y las más simples de ellas son las
ecuaciones polinomiales de primer grado, a las que llamaremosecuaciones lineales. Por
ejemplo, en una variable son de la formaax = b; en dos variables son ecuaciones de la
forma ax + by = c; en tres variables son ecuaciones de la formaax + by + cz = d.
En general, si tenemosn variablesx1, . . . ,xn, unaecuacíon lineal enn variableses una
igualdad de la forma
(∗) a1x1 + · · ·+ anxn = b
con los coeficientesa1, . . . , an y el término independienteb elementos de uncampoK
(por ejemplo,Q, R, C ó Z/pZ). La pregunta importante, en este contexto, es ¿qué valores
de las variables son soluciones de (∗)?, es decir, ¿qúe valores de las variablesxj = αj ∈ K
son tales que al substituirlos en (∗) la convierten en una igualdad en el campoK? Veamos
unos ejemplos:
Ejemplo 1. Para la ecuación 2x + 3y = 5, si ponemosx = 1, y = 1, se tiene que2(1) +
3(1) = 5 es una igualdad verdadera (digamos, en el campoR). Diremos entonces que
x = 1, y = 1 son unasolucíon de la ecuacíon 2x + 3y = 5. Observe que pueden existir
mas soluciones, por ejemplox = 10, y = −5 es una solución ya que2(10) + 3(−5) =
20− 15 = 5. Note tambíen que si intercambiamos los valores dex y y, poniendox = −5,
y = 10, ya no se tiene una solución ya que2(−5)+3(10) = −10+30 = 20 6= 5. El punto
aqúı es que una solución de2x + 3y = 5 es unpar ordenado(x0, y0) de elementos del
campoK (en nuestro ejemploK = R) tal que2x0 + 3y0 = 5. Aśı, (10,−5) es solucíon
de2x + 3y = 5, pero(−5, 10) no lo es. Resumiendo, las soluciones de2x + 3y = 5 son
pares ordenados(x0, y0) ∈ R× R.
Ejemplo 2. En forma ańaloga, si consideramos una ecuación de la forma (∗) en tres varia-
bles, digamos con coeficientes reales:
2x− 3y + 5z = 10
y nos preguntamos por sus soluciones, observe quex = 3, y = 2, z = 2 es una solución
de la ecuacíon anterior, ya que
2(3)− 3(2) + 5(2) = 10.
Aśı, la terna ordenada(3, 2, 2) es una solución de2x− 3y + 5z = 10, pero(2, 3, 2) no lo
es ya que
2(2)− 3(3) + 5(2) = 5 6= 10.
Es decir, las soluciones de2x − 3y + 5z = 10 son ternas ordenadas de números reales
(x0, y0, z0).
1
2 1. ESPACIOS VECTORIALES
Las observaciones hechas en los ejemplos anteriores se pueden resumir, en el caso
general, como sigue: para la ecuación lineal
(∗) a1x1 + · · ·+ anxn = b,
si los coeficientesaj y el término independienteb son ńumeros reales y si queremos solu-
ciones reales, entonces elconjunto de solucionesS de (∗) es un subconjunto deR×· · ·×R
(n factores). Y, en general, si los númerosaj , b pertenecen a un campoK y si queremos so-
luciones con valores enK, entonces el conjunto de solucionesS de (∗) es un subconjunto
de
n veces︷ ︸︸ ︷
K × · · · ×K .
La pregunta importante en este contexto es: ¿cómo encontrar todas las soluciones de
una ecuacíon lineal de la forma (∗)? y, para comenzar, ¿cómo sabemos si una ecuación de
la forma (∗) tiene o no soluciones?
En los caṕıtulos siguientes desarrollaremos métodos para responder a las dos pregun-
tas anteriores y comenzamos, en la sección siguiente, planteando el problema anterior en
un contexto un poco ḿas general.
1.1. Sistemas de ecuaciones lineales
Hemos considerado ecuaciones lineales de la forma
(∗) a1x1 + · · ·+ anxn = b,
y vimos que sus soluciones son un subconjuntoS del producto cartesiano
n veces︷ ︸︸ ︷
K × · · · ×K al
que denotaremos porKn. Ahora, adeḿas de considerar una sola ecuación lineala1x1 +
· · · + anxn = b, podemos considerar dos o más tales ecuaciones. Por ejemplo, podemos
considerar dos ecuaciones, con coeficientes enR, de la forma
2x+ 3y = 5
4x− 2y = 6
y preguntarnos por las soluciones (pares ordenados deR2) que sean solución simult́anea
de la primera y de la segunda ecuación. En el ejemplo anterior,(1, 1) es solucíon de la
primera ecuación ya que2(1) + 3(1) = 5, perono lo es de la segunda ecuación ya que
4(1) − 2(1) = 2 6= 6. Similarmente,(3, 3) es solucíon de la segunda ecuación pero no
lo es de la primera. Observe ahora que el par ordenado(7/4, 1/2) es solucíon de ambas
ecuaciones ya que
2(7/4) + 3(1/2) = 5
4(7/4)− 2(1/2) = 6.
El ejemplo anterior muestra que algunas soluciones de una ecuación no tienen por
qué ser soluciones de la otra y que puede haber soluciones que lo sean de ambas ecuacio-
nes.
En este marco general, estudiaremos el problema de encontrar todas las soluciones de
un conjunto dem ecuaciones lineales enn variables de la forma (∗), requiriendo que las
soluciones lo sean de todas las ecuaciones dadas. Diremos en este caso que tenemos un
1.1. SISTEMAS DE ECUACIONES LINEALES 3
sistema dem ecuaciones lineales enn incógnitasy usaremos la notación siguiente para
denotar a un tal sistema:
a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
...
am1x1 + am2x2 + · · ·+ amnxn = bm
donde loscoeficientesaij y los términos independientesbi son elementos de un campoK.
Recordemos que las soluciones buscadas sonn-adas ordenadas(x1, . . . , xn), es decir, son
elementos deKn :=
n veces︷ ︸︸ ︷
K × · · · ×K.
Antes de comenzar a buscar soluciones de un sistema de ecuaciones como el anterior,
debemos preguntarnos si estas soluciones existen ya que puede suceder que el conjunto
de soluciones de uno de estos sistemas sea el conjunto vacı́o. Por ejemplo, ḿas adelante
veremos que el sistema de ecuaciones
2x+ 3y = 5
4x+ 6y = 1
no tiene soluciones. Si la lectora o lector recuerda su curso de geometrı́a, podŕa reconocer
por qúe el sistema anterior no tiene soluciones, por ejemplo recordando que el conjunto de
soluciones enR2 de una ecuación de la formaax+ by = c representa una rectaL enR2:
◦ -
6 L
�
�
�
�
�
��
y que las dos rectas del sistema anterior son paralelas distintas.
Conviene entonces, para comenzar, considerar sistemas de ecuaciones lineales de los
cuales sepamos que siempre tienen soluciones. Algunos de estos sistemas son aquellos de
la forma:
a11x1 + a12x2 + · · ·+ a1nxn = 0
a21x1 + a22x2 + · · ·+ a2nxn = 0
...
am1x1 + am2x2 + · · ·+ amnxn = 0
donde todos los términos independientes sonbi = 0. Llamaremoshomoǵeneosa estos
sistemas de ecuaciones y observamos que siempre tienen la solución (0, . . . , 0) ∈ Kn.
Aśı, el conjuntoSh ⊆ Kn de soluciones de un sistema homogéneo es no vacı́o ya que
contiene al elemento0 = (0, . . . , 0) ∈ Kn. Supongamos ahora queu = (u1, .. . , un) y
v = (v1, . . . , vn) son dos elementos deSh, i.e., son soluciones del sistema de ecuaciones
4 1. ESPACIOS VECTORIALES
homoǵeneo. Entonces, substituyendo losuj en el sistema de ecuaciones se obtienen las
igualdades
(1) ai1u1 + ai2u2 + · · ·+ ainun = 0 para1 ≤ i ≤ m
y similarmente, substituyendo losvj se obtienen las igualdades
(2) ai1v1 + ai2v2 + · · ·+ ainvn = 0 para1 ≤ i ≤ m.
Observe ahora que si definimos la suma de lasn-adasu y v componente a componente:
u+ v := (u1, . . . , un) + (v1, . . . , vn) = (u1 + v1, . . . , un + vn)
estan-ada tambíen es un elemento deKn ya que cada componenteuj + vj ∈ K porque
el campoK es cerrado bajo sumas. Se tiene además queu + v tambíen es solucíon del
sistema homoǵeneo dado ya que
ai1(u1 + v1) + ai2(u2 + v2) + · · ·+ ain(un + vn) = (ai1u1 + · · ·+ ainun)
+ (ai1v1 + · · ·+ ainvn)
= 0 + 0
= 0
por (1) y (2).
Hemos mostrado ası́ que el conjuntoSh de soluciones de un sistema de ecuaciones
homoǵeneo escerrado bajo sumas.
Tambíen, siu = (u1, u2, . . . , un) ∈ Sh y λ ∈ K es cualquier elemento del campoK,
entonces definiendo
λ · u := (λu1, λu2, . . . , λun)
observamos queλ · u ∈ Kn ya que cadaλui ∈ K porque el campoK es cerrado bajo
productos. Se tiene además queλu sigue siendo una solución del sistema homogéneo ya
que
ai1(λu1) + ai2(λu2) + · · ·+ ain(λun) = λ(ai1u1 + ai2u2 + · · ·+ ainun) = λ(0) = 0
factorizando aλ y usando (1).
Hemos mostrado ası́ que el conjuntoSh de soluciones de un sistema de ecuaciones
homoǵeneo escerrado bajo productos por elementos del campoK. De ahora en adelante
a los elementos de un campoK los llamaremosescalares.
Resumiendo, siSh ⊆ Kn es el conjunto de soluciones de un sistema de ecuaciones
lineales homoǵeneas, hemos probado queSh satisface:
(1).Sh contiene al elemento0 ∈ Kn.
(2).Sh es cerrado bajo sumas componente a componente.
(3).Sh es cerrado bajo producto por escalares.
Nótese ćomo en la demostración de las propiedades anteriores se usó fuertemente
el hecho de que los términos independientes de las ecuaciones lineales del sistema sean0,
porque este ńumero satisface que0+0 = 0 y λ·0 = 0 enK. Si alǵun t́ermino independiente
no fuera0 el conjunto de soluciones no serı́a cerrado bajo ninguna de las dos operaciones
anteriores e incluso podrı́a ser vaćıo como observamos en un ejemplo previo.
En el caso de un sistema homogéneo, el conjuntoSh satisface las propiedades extras
siguientes:
1.1. SISTEMAS DE ECUACIONES LINEALES 5
Proposición 1.1. El conjuntoSh ⊆ Kn de soluciones de un sistema de ecuaciones ho-
moǵeneas, junto con las operacionessumay producto por un escalar, satisface las propie-
dades siguientes:
(1) La suma esasociativa, es decir, siu, v, w ∈ Sh, entonces
u+ (v + w) = (u+ v) + w.
(2) La suma esconmutativa, es decir, para todou, v ∈ Sh se tiene que
u+ v = v + u.
(3) El elemento0 ∈ Sh esneutro aditivo, es decir, para cualquieru ∈ Sh se tiene que
u+ 0 = u.
(4) Para cada elementou ∈ Sh existe un elementou′ ∈ Sh tal queu+u′ = 0. Al elemento
u′ se le llama uninverso aditivodel elementou.
El producto por un escalar del campoK y un elemento deSh satisface:
(5) Para cualesquierau, v ∈ Sh y λ ∈ K se tiene que
λ(u+ v) = λu+ λv.
(6) Para cualesquierau ∈ Sh y λ, γ ∈ K se tiene que
(λ+ γ)u = λu+ γu.
(7) Para cualesquierau ∈ Sh y λ, γ ∈ K se tiene que
(λ · γ)u = λ · (γ · u).
(8) Para todou ∈ Sh y para el neutro multiplicativo1 ∈ K se tiene que
1 · u = u.
DEMOSTRACIÓN. Probaremos algunas de las propiedades anteriores, dejando las otras
como un ejercicio. Para (2), siu = (u1, . . . , un) y v = (v1, . . . , vn) son dos elementos
arbitrarios deSh, entonces
u+ v = (u1, . . . , un) + (v1, . . . , vn)
= (u1 + v1, . . . , un + vn) por definicíon de suma enSh
= (v1 + u1, . . . , vn + un) porqueui + vi = vi + ui enK
= v + u por definicíon de suma enSh.
Para (3), siu = (u1, . . . , un) ∈ Sh, entonces
u+ 0 = (u1, . . . , un) + (0, . . . , 0)
= (u1 + 0, . . . , un + 0) por definicíon de suma enSh
= (u1, . . . , un) porqueui + 0 = ui enK
= u.
Para (4), siu = (u1, . . . , un) ∈ Sh, entonces el elemento
u′ := (−u1, . . . ,−un)
6 1. ESPACIOS VECTORIALES
pertenece aSh y adeḿas satisface queu + u′ = 0. En efecto, comou′ = (−1)u y como
Sh es cerrado bajo multiplicación por escalares, entoncesu′ ∈ Sh. Ahora,
u+ u′ = (u1, . . . , un) + (−u1, . . . ,−un)
= (u1 − u1, . . . , un − un)
= (0, . . . , 0)
= 0.
Para (6), siu = (u1, . . . , un) ∈ Sh y λ, γ ∈ K, entonces
(λ+ γ)u = (λ+ γ)(u1, . . . , un)
= ((λ+ γ)u1, . . . , (λ+ γ)un)
= (λu1 + γu1, . . . , λun + γun)
= (λu1, . . . , λun) + (γu1, . . . , γun)
= λu+ γu.
�
EJERCICIO1. Demuestre las propiedades (1), (5), (7) y (8) de la proposición anterior.
El lector habŕa notado que hasta ahora no hemos dado algún método para hallar solu-
ciones (diferentes de la solución obvia0) de un sistema homogéneo de ecuaciones lineales.
Tan śolo hemos probado algunas propiedades del conjunto de soluciones de un tal sistema
homoǵeneo. Por el momento tendremos que conformarnos con esto; más adelante desarro-
llaremos un ḿetodo general para hallar todas las soluciones de un sistema de ecuaciones
lineales homoǵeneo o no y será hasta ese momento cuando las propiedades que acabamos
de demostrar muestren su importancia debida. Ası́, despúes de pedir la confianza del lector
en este punto, lo anterior sirvaúnicamente como motivación para el estudio de los conjun-
tosV que satisfacen las mismas propiedades queSh. El lector notaŕa sin embargo que el
tema de las soluciones de sistemas de ecuaciones lineales estará siempre presente en los
desarrollos que haremos y en algunos puntos lo haremos explı́cito cuando convenga.
1.2. Espacios vectoriales
En la seccíon anterior vimos ćomo el conjuntoSh de soluciones de un sistema de
ecuaciones lineales homogéneas es cerrado bajo sumas y producto por escalares del cam-
po dado y adeḿas satisface las propiedades listadas en la proposición 1.1. En general exis-
ten muchos conjuntosV que tienen operaciones como las del conjuntoSh y satisfacen
propiedades ańalogas; en esta sección comenzamos su estudio.
Definición 1.2. SiK es un campo (por ejemploQ, R, C ó Z/pZ conp primo), unespacio
vectorial sobreK (ó K-espacio vectorial) es un conjunto no vacı́o V (cuyos elementos
llamaremosvectores) junto con dos operaciones:
SUMA DE VECTORES. Siu, v ∈ V se tiene definido otro vectoru+ v ∈ V y decimos que
la operacíonsumaes cerrada.
PRODUCTO DE UN ESCALAR POR UN VECTOR. Si u ∈ V y λ ∈ K se tiene definido otro
vectorλ · u ∈ V .
Y se requiere que estas operaciones satisfagan las propiedades siguientes:
1.2. ESPACIOS VECTORIALES 7
(1) La suma esasociativa, es decir, siu, v, w ∈ V , entonces
u+ (v + w) = (u+ v) + w.
(2) La suma esconmutativa, es decir, para todou, v ∈ V se tiene que
u+ v = v + u.
(3) Existe unneutro aditivo, es decir, existe un elemento0V ∈ V tal que para cualquier
u ∈ V se tiene que
u+ 0V = u.
(4) Para cada elementou ∈ V existe un elementou′ ∈ V tal queu+u′ = 0V . Al elemento
u′ se le llama uninverso aditivodel elementou.
El producto por un escalar del campoK y un elemento deV satisface:
(5) Para cualesquierau, v ∈ V y λ ∈ K se tiene que
λ(u+ v) = λu+ λv.
(6) Para cualesquierau ∈ V y λ, γ ∈ K se tiene que
(λ+ γ)u = λu+ γu.
(7) Para cualesquierau ∈ V y λ, γ ∈ K se tiene que
(λ · γ)u = λ · (γ · u).
(8) Para todou ∈ V y para el neutro multiplicativo1 ∈ K se tiene que
1 · u = u.
Ejemplo 3. Con esta terminologı́a, el conjuntoSh de soluciones de un sistema de ecuacio-
nes lineales homogéneas es unK-espacio vectorial.
Ejemplo 4. SiK es un campo y
V := Kn =
n veces︷ ︸︸ ︷
K × · · · ×K,
los elementos deV son todas lasn-adas ordenadasu = (a1, . . . , an) con entradasaj ∈ K.
Recuerde que dosn-adas ordenadasu = (a1, . . . , an) y v = (b1, . . . , bn) deV = Kn son
iguales, denotadou = v, si y śolo siaj = bj para todas lasj = 1, . . . , n.
I. EnV = Kn se define unasumamediante la regla
u+ v = (a1, . . . , an) + (b1, . . . , bn) := (a1 + b1, . . . , an + bn),
observandoque, comoaj + bj ∈ K, entoncesu + v ∈ V , es decir, la suma anterior es
cerrada enV .
II. En V = Kn se define el producto por un escalar mediante la regla siguiente: siλ ∈ K
y u = (a1, . . . , an) ∈ V , se define
λ · u = λ · (a1, . . . , an) := (λu1, . . . , λun)
observando que, comoλaj ∈ K, entoncesλu ∈ V .
EJERCICIO 2. Verifique queV = Kn, con las operaciones anteriores, es unK-espacio
vectorial.
8 1. ESPACIOS VECTORIALES
Ejemplo 5. Si K es cualquier campo yV = K[x] es el conjunto de polinomios en una
variablex, con coeficientes enK, los elementos deV = K[x] son las expresiones de la
forma
f = f(x) = a0 + a1x+ a2x2 + · · ·+ amxm
con losaj ∈ K y m ≥ 0 un entero. Recuerde que dos polinomiosf(x) = a0 + a1x +
a2x
2 + · · ·+ amxm y g(x) = b0 + b1x+ b2x2 + · · ·+ bnxn son iguales, denotadof = g,
si y śolo sim = n y aj = bj para cadaj.
I. EnV = K[x] se tiene la suma usual de polinomios
f + g := (a0 + b0) + (a1 + b1)x+ (a2 + b2)x2 + · · ·+ (ak + bk)xk + · · ·
(sumando los coeficientes de los términos correspondientes) y observamos queaj+bj ∈ K
por lo quef + g ∈ V = K[x].
II. Si f = a0 + a1x+ a2x2 + · · ·+ amxm ∈ V = K[x] y λ ∈ K, se defineλ · f como
λf= λ(a0 + a1x+ a2x2 + · · ·+ amxm) = (λa0) + (λa1)x+ (λa2)x2 + · · ·+ (λam)xm
y se observa que, comoλaj ∈ K, entoncesλ · f ∈ V = K[x].
EJERCICIO3. Verifique queV = K[x] es unK-espacio vectorial.
Ejemplo 6. ParaK = R pongamos
V := {f : [a, b] → R : f es una funcíon},
i.e.,V es el conjunto de funciones del intervalo real[a, b] a la recta realR.
En V se define una suma de funciones en la forma usual: sif, g ∈ V se define la
funciónf + g : [a, b] → R mediante la regla
(f + g)(α) := f(α) + g(α) paraα ∈ [a, b].
Tambíen, sif ∈ V y λ ∈ R, se define el productoλ · f : [a, b] → R mediante la regla
(λ · f)(α) = λ · f(α) paraα ∈ [a, b].
EJERCICIO 4. Compruebe que el conjunto de funcionesV anterior, con las operaciones
definidas antes, es unR-espacio vectorial.
Ejemplo 7. SiK = R, consideremos el conjunto
V := {s : N → R : s es una funcíon},
es decir,V es el conjunto de funciones con dominio los naturales y codominio los reales.
Una funcíons : N → R se suele llamar unasucesíoncon valores reales. Dada una sucesión
s : N → R, para cada naturaln ∈ N se tiene uńunico valor reals(n) ∈ R. Es costumbre
usar la notacíon sn := s(n) ∈ R y a la sucesíon s : N → R se le denota{sn} sobreenten-
diendo su dominio,N, y su codominio,R. En el conjuntoV de sucesiones reales se tiene
la suma usual: si{an} y {bn} son dos elementos deV se define:
{an}+ {bn} := {an + bn},
y, siλ ∈ R y {an} ∈ V , se define
λ · {an} := {λan}.
1.2. ESPACIOS VECTORIALES 9
EJERCICIO 5. Demuestre que el conjunto de sucesiones realesV , con las operaciones
anteriores, es unR-espacio vectorial.
Ejemplo 8. (Matrices.) Este es un ejemplo muy importante: siK es cualquier campo y
m,n ∈ N son dos naturales dados, unamatrizm × n con entradas en el campoK, es un
arreglo rectangular de la forma:

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
am1 am2 · · · amn

donde cada entradaaij ∈ K, para1 ≤ i ≤ m y 1 ≤ j ≤ n. En una matrizm × n
distinguiremos susrenglonesy suscolumnas:

a11 a12 · · · a1j · · · a1n
a21 a22 · · · a2j · · · a2n
...
...
...
ai1 ai2 · · · aij · · · ain
...
...
...
am1 am2 · · · amj · · · amn
-RengĺonRi
ColumnaCj
?
de tal forma que una matrizm × n tienem renglonesRi, 1 ≤ i ≤ m y n columnasCj ,
1 ≤ j ≤ n, dados por
Ri = (ai1, ai2, . . . , ain)
y
Cj =

a1j
a2j
...
amj

Observe entonces que los renglonesRi son vectores deKn y, salvo la notacíon, las
columnas son vectores deKm.
Usaremos letras mayúsculas comoA, B, C para denotar a matricesm × n y, en
ocasiones, usaremos la abreviación A = (aij)m×n para denotar una matrizm × n con
entradasaij .
Si A = (aij)m×n y B = (bij)m×n son dos matrices del mismo tamañom × n, con
entradas en el campoK, diremos que la matrizA esigual a la matrizB, denotadoA = B,
si y śolo si aij = bij para todoi = 1, . . . ,m y todoj = 1, . . . , n. Es decir, dos matrices
son iguales si y śolo si entrada por entrada son iguales.
10 1. ESPACIOS VECTORIALES
Denotaremos medianteMatm×n(K) al conjunto de matrices de tamañom × n con
entradas en el campoK. En este conjunto se tienen las operaciones:
I. SUMA DE MATRICES. SiA = (aij)m×n yB = (bij)m×n son matrices enMatm×n(K),
se define su suma mediante:
A+B = (aij) + (bij) := (aij + bij)
sumando coeficiente a coeficiente. Es claro queA+B ∈ Matm×n(K), por lo que la suma
es cerrada.
II. PRODUCTO DE UN ESCALAR POR UNA MATRIZ. Si A = (aij)m×n es una matriz en
Matm×n(K) y λ ∈ K es un escalar, se defineλ ·A mediante:
λ ·A = λ(aij) := (λaij)
multiplicando el escalarλ por cada uno de los coeficientes deA. Es claro queλA ∈
Matm×n(K).
EJERCICIO 6. Demuestre que el conjunto de matricesMatm×n(K), con las operaciones
anteriores, es unK-espacio vectorial.Nota:usaremos el sı́mbolo0 para denotar a la matriz
m× n con todas sus entradasaij = 0 y la llamaremos la matriz cero.
EJERCICIO7. SeaV := {f : R → R : f es una funcíonpar} (recuerde que unaf es una
función par si y śolo si f(x) = f(−x) para todox ∈ R). Con la suma y producto por un
escalar usuales (véase el ejemplo 6), demuestre queV es unR-espacio vectorial.
EJERCICIO 8. SeanK = R y V = Cn con la suma coordenada a coordenada y para un
escalarλ ∈ R se define el producto por un vector deV = Cn coordenada a coordenada.
¿EsV unR-espacio vectorial?
Propiedades elementales de los espacios vectoriales.Las primeras propiedades de los
espacios vectoriales son aquellas que uno podrı́a esperar:
Lema 1.3(Ley de cancelación para la suma). SiV es unK-espacio vectorial yu, v, w ∈ V
son tales que
u+ v = u+ w,
entoncesv = w.
DEMOSTRACIÓN. Seau′ ∈ V un inverso aditivo deu (el cual existe por la propiedad 4 de
la deficíon 1.2). Entonces,
u+ v = u+ w ⇒ u′ + (u+ v) = u′ + (u+ w)
⇒ (u′ + u) + v = (u′ + u) + w por asociatividad
⇒ 0V + v = 0V + w ya queu′ + u = 0V (un neutro aditivo)
⇒ v = w.
�
Lema 1.4. SiV es unK-espacio vectorial, entonces:
(1) El neutro aditivo deV esúnico.
(2) Para cadau ∈ V su inverso aditivo eśunico.
1.2. ESPACIOS VECTORIALES 11
DEMOSTRACIÓN. (1) Supongamos que0V y 0′V son dos neutros aditivos deV . Entonces,
0V = 0V + 0′V ya que0
′
V es neutro aditivo
= 0′V ya que0V es neutro aditivo.
(2) Seau ∈ V y supongamos queu′ y u′′ son ambos inversos aditivos deu. Entonces,
u+ u′ = 0V ya queu′ es inverso aditivo deu
= u+ u′′ ya queu′′ es inverso aditivo deu,
se sigue queu + u′ = u + u′′ y, por la ley de cancelación, estoúltimo implica queu′ =
u′′. �
Al ( único) inverso aditivo deu ∈ V lo denotaremos mediante−u ∈ V .
Proposición 1.5. SeaV unK-espacio vectorial. Entonces,
(1) λ · 0V = 0V , para cualquierλ ∈ K y el vector0V ∈ V .
(2) 0 ·u = 0, para el escalar0 ∈ K y cualquieru ∈ V . Nota: en la igualdad anterior el0
en el lado izquierdo denota al escalar0 ∈ K y el 0 en el lado derecho es el vector0V ∈ V .
Algunas veces denotaremos al vector0V mediante un0 y el contexto debe indicar cuál es
el significado correcto y no debe causar confusión.
(3) (−1)u = −u, para el escalar−1 ∈ K y cualquieru ∈ V .
DEMOSTRACIÓN. (1) Siλ ∈ K y 0 ∈ V ,
λ · 0 = λ · (0 + 0) ya que0 es neutro aditivo
= λ · 0 + λ · 0,
y, por la ley de cancelación, estóultimo implica queλ · 0 = 0.
(2) Siu ∈ V y 0 ∈ K,
0 · u = (0 + 0) · u ya que0 ∈ K es neutro aditivo
= 0 · u+ 0 · u,
y, por la ley de cancelación, estóultimo implica que0 · u = 0.
(3) Siu ∈ V y −1 ∈ K,
u+ (−1) · u = 1 · u+ (−1) · u ya que1 · u = u
= (1− 1) · u
= 0 · u
= 0 por la propiedad (2) anterior.
Se sigue queu + (−1) · u = 0 y, por la unicidad del inverso aditivo deu, la igualdad
anterior implica que(−1) · u = −u. �
EJERCICIO9. SeaV unK-espacio vectorial. Siu ∈ V y λ ∈ K, demuestre que
(−λ) · u = λ · (−u) = −(λ · u).
EJERCICIO 10. SeaV un K-espacio vectorial. Siu, v ∈ V son tales queu + v = v,
demuestre queu = 0.
12 1. ESPACIOS VECTORIALES
EJERCICIO11. SeaV unK-espacio vectorial y seaλ ∈ K un escalar6= 0. Siu ∈ V estal
queλ · u = 0, demuestre queu = 0.
1.3. Subespacios vectoriales
Al estudiar sistemas dem ecuaciones lineales homogéneas enn incógnitas con coe-
ficientes, digamos enR, mostramos en§1.1 que el conjunto de solucionesSh de un tal
sistema es unR-espacio vectorial contenido enRn. Por el ejemplo 4 de§1.2, se tiene que
Rn tambíen es unR-espacio vectorial y las operaciones deSh y deRn son las mismas y
tenemos aśı dos espacios vectorialesSh ⊆ Rn con las mismas operaciones.
Definición 1.6. Si V es unK-espacio vectorial yW ⊆ V es un subconjunto, diremos que
W es unsubespacio vectorialdeV siW es unK-espacio vectorial con las operaciones de
V restringidas aW .
Observe que, siW ⊆ V es un subespacio vectorial, en particular esto quiere decir
que:
(i) W debe contener al vector0V deV ,
(ii) W es cerrado bajo la suma de vectores deV ,
(iii) W es cerrado bajo el producto por escalares deK, y
(iv) para cadaw ∈W su inverso aditivo−w tambíen debe estar enW .
Supongamos ahora queW ⊆ V es un subconjunto no vacı́o que satisface las condicio-
nes (i), (ii), (iii) y (iv) anteriores. Observamos queW es un subespacio vectorial deV ya
que todas las propiedades de espacio vectorial deV se heredan aW . Hemos aśı probado:
Lema 1.7. SeanV unK-espacio vectorial yW ⊆ V un subconjunto no vacı́o. Entonces,
W es un subespacio vectorial deV si y śolo siW satisface las condiciones(i), (ii), (iii) y
(iv) anteriores.
�
Observemos ahora que siW ⊆ V satisface las condiciones (i), (ii), (iii), entonces
tambíen satisface la condición (iv) ya que siw ∈ W , entonces para el escalar−1 ∈ K se
tiene por (iii) que(−1)·w ∈W ; pero por la proposición 1.5(3) se tiene que(−1)·w = −w
y por lo tanto (iv) se satisface. Hemos ası́ probado la simplificación siguiente del lema
anterior:
Lema 1.8. SeanV unK-espacio vectorial yW ⊆ V un subconjunto no vacı́o. Entonces,
W es un subespacio vectorial deV si y śolo siW satisface las condiciones(i), (ii) y (iii)
anteriores.
�
Ejemplo 9. Si V es cualquierK-espacio vectorial, entonces el subconjuntoW = {0V } ⊆
V es un subespacio vectorial. El subconjuntoW = V ⊆ V tambíen es un subespacio
vectorial.
Ejemplo 10. Si V = K[x] es el espacio vectorial de polinomios en una variable con coe-
ficientes en el campoK, seaPn(K) el subconjunto deV formado por los polinomios
de grado≤ n, paran ≥ 0 un entero fijo. Como el polinomio constante0 tiene grado
1.3. SUBESPACIOS VECTORIALES 13
gr(0) = −∞ < n, entonces0 ∈ Pn(K). ClaramentePn(K) es cerrado bajo sumas y
producto por escalares. Se sigue quePn(K) es un subespacio deK[x].
Ejemplo 11. Si V = F([a, b],R) es elR-espacio vectorial de las funcionesf : [a, b] → R
y W = C([a, b],R) es el subconjunto de funciones continuas de[a, b] enR, entoncesW es
un subespacio vectorial deV ya que las funciones constantes son continuas (en particular,
la función 0 es continua), la suma de funciones continuas es continua y el producto de un
escalar real por una función continua es continua.
Ejemplo 12. SiV = R2, podemos visualizarlo como el plano cartesiano:
◦ -
6
W = ejeX
y siW = ejeX = {(a, 0) : a ∈ R}, se tiene queW es un subespacio vectorial deR2.
Lo mismo es cierto para el ejeY .
Matrices. Para poder dar ejemplos de subespacios del (importante) espacio vectorial de
matricesMatm×n(K) necesitaremos algunas definiciones:
(•)Una matrizA = (aij)m×n se dice que es unamatriz cuadradasim = n.
(•) Dada una matriz cuadrada enMatn×n(K):
A = (aij)n×n =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
an1 an2 · · · ann

a las entradas de la formaaii se les llama los elementos de ladiagonaldeA.
(•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz diagonalsi todas sus
entradas fuera de la diagonal son0, i.e., siaij = 0 siempre quei 6= j. Aśı, una matriz
diagonal se ve como: 
a11 0 · · · 0
0 a22 0 · · · 0
0 0 a33 0 · · · 0
...
...
...
...
0 · · · 0 0 ann

Note que no estamos pidiendo que los elementos de la diagonal sean6= 0, bien puede
suceder que algunos o todos los elementos de la diagonal también sean0. En particular, la
matriz0 ∈ Matn×n(K) es una matriz diagonal.
(•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz triangular superiorsi
todas sus entradas abajo de la diagonal son0, i.e., siaij = 0 siempre quei > j. Aśı, una
14 1. ESPACIOS VECTORIALES
matriz triangular superior se ve como:
a11 a12 · · · a1n
0 a22 · · · a2n
...
...
...
...
0 · · · 0 ann

(•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz triangular inferiorsi
todas sus entradas arriba de la diagonal son0, i.e., siaij = 0 siempre quei < j. Aśı, una
matriz triangular inferior se ve como:
a11 0 · · · 0
a21 a22 0 · · · 0
...
...
...
...
an1 an2 · · · ann

(•) Si
A = (aij)m×n =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
am1 am2 · · · amn

m×n
es una matrizm × n, su transpuesta, denotadatA es la matrizn × m que se obtiene
intercambiando renglones y columnas deA, i.e.,
tA = (aji)n×m =

a11 a21 · · · am1
a12 a22 · · · am2
...
...
...
a1n a2n · · · amn

n×m
Por ejemplo, si
A =
(
1 2 4
−1 3 0
)
2×3
entonces
tA =
 1 −12 3
4 0

3×2
(•) Una matriz cuadradaA = (aij)n×n se dice que es unamatriz siḿetrica si es igual a
su transpuesta, i.e., sitA = A. Es decir, siaij = aji para todas las entradas deA. Por
ejemplo, la matriz
A =
 1 0 10 2 0
1 0 3

3×3
es siḿetrica.
EJERCICIO12. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices diagona-
les, demuestre queW es un subespacio vectorial deV .
1.3. SUBESPACIOS VECTORIALES 15
EJERCICIO13. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices triangu-
lares superiores, demuestre queW es un subespacio vectorial deV .
EJERCICIO14. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices triangu-
lares inferiores, demuestre queW es un subespacio vectorial deV .
EJERCICIO15. SiV = Matn×n(K) y W ⊆ V es el subconjunto de las matrices simétri-
cas, demuestre queW es un subespacio vectorial deV . Nota: tendŕa que probar que si
A,B ∈ Matn×n(K), entonces
(i) t(A+B) = tA+ tB.
(ii) t(λA) = λ(tA), para todaλ ∈ K.
(•) SiA = (aij)n×n es una matriz, sutraza, denotada Tr(A), es la suma de los elementos
de su diagonal. Es decir,
Tr(A) = Tr(aij) =
∑
i
aii.
Note que la traza de una matriz es un escalar.
EJERCICIO 16. SiV = Matn×n(K) y W ⊆ V es el subconjunto de todas las matrices
cuya traza es0, demuestre queW es un subespacio vectorial deV .
EJERCICIO 17. SeaV = R2 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales deV :
(i) W = {(x, y) ∈ R2 : x = y}.
(ii) W = {(x, y) ∈ R2 : x+ y = 0}.
(iii) W = {(x, y) ∈ R2 : x+ 4y = 0}.
EJERCICIO 18. SeaV = R3 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales deV :
(i) W = {(x, y, z) ∈ R3 : x+ y + z = 0}.
(ii) W = {(x, y, z) ∈ R3 : x = y & 2y = z}.
(iii) W = {(x, y, z) ∈ R3 : x+ y = 3z}.
EJERCICIO19. SeaV = Matn×n(K). Demuestre que el subconjuntoW ⊆ V de matrices
cuya diagonal consiste de ceros, es un subespacio vectorial deV .
Operaciones con subespacios vectoriales.Dado unK-espacio vectorialV , sus subespa-
cios vectoriales son subconjuntos deV y aśı podemos considerar su intersección y su uníon
penśandolos como conjuntos. La pregunta natural en este contexto es: ¿dadosW1,W2 su-
bespacios vectoriales deV , seŕa cierto queW1 ∩W2 óW1 ∪W2 tambíen son subespacios
vectoriales deV ? La respuesta es afirmativa en el caso de la intersección y negativa en
general para la unión:
Lema 1.9. Si V es unK-espacio vectorial yW1,W2 subespacios vectoriales deV , en-
toncesW1 ∩W2 tambíen es un subespacio vectorial deV .
16 1. ESPACIOS VECTORIALES
DEMOSTRACIÓN. ComoW1 y W2 son subespacios deV , entonces0V ∈ W1 ∩W2. Si
u, v ∈ W1 ∩W2, entonces por definición de intersección u, v ∈ W1 y u, v ∈ W2, por lo
queu + v ∈ W1 y u + v ∈ W2 ya queW1 y W2 son cerrados bajo la suma de vectores.
Se sigue queu + v ∈ W1 ∩W2. Similarmente, siw ∈ W1 ∩W2, entoncesw ∈ W1 y
w ∈ W2 y aśı, para cualquierescalarλ se tiene queλw ∈ W1 y λw ∈ W2 ya que ambos
son subespacios. Se sigue queλw ∈W1 ∩W2. �
EJERCICIO 20. SiWα, paraα ∈ I, es una familia de subespacios vectoriales de unK-
espacio vectorialV , demuestre que ⋂
α∈I
Wα
es un subespacio vectorial deV .
Ejemplo 13. Si V = R2, W1 = ejeX y W2= ejeY son los subespacios vectoriales del
ejemplo 12, entoncesW1∪W2 consiste de los dos ejes coordenados deR2. Note ahora que
W1 ∪W2 no es cerrado bajo sumas de vectores, por ejemplo, si(2, 0) ∈W1 y (0, 3) ∈W2
se tiene que(2, 0) + (0, 3) = (2, 3) 6∈W1 ∪W2.
Suma de subespacios.Habiendo observado que la unión de subespacios en general no es
un subespacio del espacio vectorialV dado y pensando en el ejemplo 13 anterior, es fácil
notar que la uníon de dos subespacios vectoriales contiene al vector0V y es cerrado bajo
el producto por escalares, siendo loúnico que falla la cerradura bajo la suma de vectores.
Entonces siagrandamosla uniónW1 ∪W2 añadiendo las sumas de vectores de la forma
w1 + w2 conw1 ∈ W1 y w2 ∈ W2, debemos obtener un subespacio vectorial deV . La
definición formal es como sigue: dados dos subespacios vectorialesW1 y W2 de V , se
define el conjunto
W1 +W2 := {w1 + w2 : w1 ∈W1 y w2 ∈W2}
notando que comow1, w2 ∈ V , entoncesw1 + w2 ∈ V , por lo queW1 + W2 es un
subconjunto deV .
Lema 1.10. SeanW1 y W2 subespacios vectoriales deV . Entonces,W1 + W2 es un
subespacio vectorial deV y contiene a la uníonW1 ∪W2.
DEMOSTRACIÓN. Note queW1 ⊆W1+W2 ya que siw1 ∈W1, entoncesw1 = w1+0V ∈
W1+W2. SimilarmenteW2 ⊆W1+W2. Se sigue queW1∪W2 ⊆W1+W2, en particular
0V ∈W1 +W2. Probaremos queW1 +W2 es cerrado bajo sumas. En efecto, siw1 + w2
y u1 + u2 son dos elementos deW1 +W2, entonces
(w1 + w2) + (u1 + u2) = (w1 + u1) + (w2 + u2)
conw1+u1 ∈W1 yw2+u2 ∈W2 y aśıW1+W2 es cerrado bajo sumas. Probaremos ahora
queW1+W2 es cerrado bajo el producto de escalares: seanλ ∈ K y w1+w2 ∈W1+W2;
entonces,
λ(w1 + w2) = λw1 + λw2 ∈W1 +W2
ya queλw1 ∈W1 y λw2 ∈W2 porque estos son subespacios. �
Ejemplo 14. EnV = R3 considere los subespacios vectoriales siguientes:U el planoXY
y W el planoY Z, es decir,
U = {(x, y, 0) ∈ R3} y W = {(0, y, z) ∈ R3}.
1.3. SUBESPACIOS VECTORIALES 17
Entonces,R3 = U +W ya que siv = (a, b, c) ∈ R3 es cualquier vector,
v = (a, b, c) = (a, b, 0) + (0, 0, c) con(a, b, 0) ∈ U y (0, 0, c) ∈W.
Suma directa de subespacios.Note que, en el ejemplo anterior, la descomposición dev
como suma de un vector deU y de un vector deW , en general,no esúnica; por ejemplo,
v = (1, 2, 3) = (1, 2, 0) + (0, 0, 3)
= (1, 1, 0) + (0, 1, 3).
Proposición 1.11. SeaV unK-espacio vectorial y seanU,W subespacios deV . Enton-
ces, todo elementov ∈ V se puede escribir en formáunica comov = u+ w conu ∈ U y
w ∈W si y śolo si se satisfacen las dos condiciones:
(i) U +W = V .
(ii) U ∩W = {0V }.
DEMOSTRACIÓN. Supongamos que (i) y (ii) son ciertas. ComoV = U + W , entonces
para todov ∈ V existenu ∈ U y w ∈ W tales quev = u + w. Supongamos ahora que
se tiene otra descomposición dev comov = u′ + w′ conu′ ∈ U y w′ ∈ W . Entonces,
u+ w = u′ + w′ y aśı
u− u′ = w′ − w,
conu−u′ ∈ U yw′−w ∈W . La igualdad anterior nos dice queu−u′ = w′−w ∈W por
lo queu−u′ ∈W y aśı u−u′ ∈ U∩W = {0V }. Similarmente,w′−w ∈ U∩W = {0V }.
Se sigue queu − u′ = 0V = w′ − w y por lo tantou = u′ y w = w′, i.e., las dos
descomposiciones dev eran la misma.
Supongamos ahora que todo vectorv ∈ V se puede escribir en formáunica como
v = u + w conu ∈ U y w ∈ W , entonces (i) se satisface. Para probar (ii), supongamos
quev ∈ U ∩W . Entonces,v ∈ U y v ∈W por lo que
v = v + 0V conv ∈ U y 0V ∈W
= 0V + v con0V ∈ U y v ∈W
y como la descomposición dev debe seŕunica, se sigue quev = 0V , y por lo tanto
U ∩W = {0V }. �
Definición 1.12. SeaV unK-espacio vectorial. SiU,W son subespacios deV tales que:
(i) U +W = V .
(ii) U ∩W = {0V },
diremos queV essuma directade los subespaciosU y W , y lo denotaremos mediante
V = U ⊕W.
EJERCICIO21. SeanV = K[x], U ⊆ V el conjunto de polinomiosf(x) = a0 + a1x +
a2x
2 + · · · + anxn tales queai = 0 para todos lośındicesi pares, yW ⊆ V el conjunto
de polinomiosg(x) = a0 + a1x + a2x2 + · · · + amxm tales queai = 0 para todos los
ı́ndicesj impares.
(i) Muestre queU y W son subespacios vectoriales deV .
(ii) Demuestre queV = U ⊕ V .
EJERCICIO22. Recuerde que una matriz cuadradaA se dice que essimétrica si su trans-
puesta es ella misma:tA = A. La matrizA se dice que esantisiḿetricasi tA = −A.
18 1. ESPACIOS VECTORIALES
(i) SeanV = Mat2×2(K), U ⊆ V el subconjunto de matrices2 × 2 simétricas y
W ⊆ V el subconjunto de matrices antisimétricas.
(a) Muestre queU y W son subespacios vectoriales deV .
(b) Demuestre queV = U ⊕W .
(ii) SeanV = Matn×n(K),U ⊆ V el subconjunto de matrices simétricas yW ⊆ V
el subconjunto de matrices antisimétricas.
(a) Muestre queU y W son subespacios vectoriales deV .
(b) Demuestre queV = U ⊕W .
Sugerencia: siA ∈ Matn×n(K), muestre que12 (A+
tA) es siḿetrica.
EJERCICIO23. SeaV = Matn×n(K) y considere los subconjuntos
U := {(aij) ∈ Matn×n(K) : aij = 0 ∀i > j}
y
W := {(bij) ∈ Matn×n(K) : bij = 0 ∀i ≤ j}.
(i) Muestre queU y W son subespacios vectoriales deV .
(ii) Demuestre queV = U ⊕W .
1.4. Combinaciones lineales
Si en elR-espacio vectorialR3 fijamos un vectoru = (a, b, c) distinto de0 y conside-
ramos el conjunto de todos los múltiplos escalares deu:
L := {λu : λ ∈ R},
este subconjunto es una lı́nea recta enR3 que pasa por el origen en la dirección del vector
u:
◦ -
6
�
�
�	
L
��
��
��
��
�
y, de hecho,L es un subespacio vectorial deR3, como se comprueba fácilmente.
Si ahora consideramos dos vectoresu y v enR3, digamos no colineales, y considera-
mos el conjunto de todas las sumas de los múltiplos escalares deu y los múltiplos escalares
dev:
P := {λu+ γv : λ, γ ∈ R},
este subconjunto es un plano enR3 que pasa por el origen y contiene a los extremos de los
vectoresu y v:
◦ -
6
�
�
�	
P
��
��
��
��
��
@
@@
��
��
��
��
��
@
@@
1.4. COMBINACIONES LINEALES 19
y, de hecho,P es un subespacio vectorial deR3, como se comprueba fácilmente.
Definición 1.13. Si V es unK-espacio vectorial yv1, . . . , vn es un conjunto finito de
vectores deV , unacombinacíon linealde los vectoresv1, . . . ,vn es un vector de la forma:
a1v1 + a2v2 + · · ·+ anvn ∈ V
con escalaresaj ∈ K.
Un vectorv ∈ V se dice que escombinacíon lineal de los vectoresv1, . . . , vn, si
existen escalaresa1, . . . , an enK tales que
v = a1v1 + a2v2 + · · ·+ anvn.
Ejemplo 15. El vector0V ∈ V es combinacíon lineal de cualquier conjunto (finito) de
vectoresv1, . . . ,vn deV ya que
0V = 0 · v1 + · · ·+ 0 · vn.
Ejemplo 16. Si V = R2 y v1 = (1, 0), v2 = (1, 1), entonces el vectoru = (3, 4) es
combinacíon lineal dev1 y v2 ya que
u = (3, 4) = −1 · (1, 0) + 4 · (1, 1) = −1 · v1 + 4 · v2.
Ejemplo 17. SiV = Pn(K) es el espacio vectorial de los polinomios en una variablex, con
coeficientes en un campoK y de grado≤ n, y si v0 = 1, v1 = x, v2 = x2, . . . ,vn = xn
son vectores dePn(K), entonces todo polinomiof(x) = a0 +a1x+a2x2 + · · ·+anxn ∈
Pn(K) es combinacíon lineal de los vectoresv0, . . . ,vn, ya que
f(x) = a0 · 1 + a1 · x+ a2 · x2 + · · ·+ an · xn
es la combinación lineal requerida, con los escalares los coeficientesaj del polinomio
dado.
Ejemplo 18. Si V = R2 y e1 = (1, 0), e2 = (0, 1), entonces todo vectoru = (a, b) ∈ R2
es combinacíon lineal dee1 y e2 ya que
u = (a, b) = (a, 0) + (0, b) = a · (1, 0) + b · (0, 1) = a · e1 + b · e2.
Sistemas de ecuaciones lineales y combinaciones lineales.Si consideramos un sistema
de ecuaciones lineales, digamos con coeficientes enR, pero v́alido para cualquier campo
K:
a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
...
am1x1 + am2x2 + · · ·+ amnxn = bm
considerando los vectores columna (enRm óKm) dados por los coeficientesaij del siste-
ma anterior y el vector columna de los términos independientesbi:
20 1. ESPACIOS VECTORIALES
C1 =

a11
a21
...
am1
 , C2 =

a12
a22
...
am2
 , · · · , Cn =
a1n
a2n
...
amn
 , b =

b1
b2
...
bm

y pensando a las incógnitasx1, . . . , xn como escalares deR (ó deK), en notacíon vectorial
el sistema de ecuaciones anterior se puede escribir como
x1 ·

a11
a21
...
am1
+ x2 ·

a12
a22
...
am2
+ · · ·+ xn ·

a1n
a2n
...
amn
 =

b1
b2
...
bm
 ,
o, denotando a las columnas de coeficientes medianteC1, . . . ,Cn y a la columna de térmi-
nos independientes porb, la combinacíon lineal anterior se puede escribir como
(∗) x1C1 + x2C2 + · · ·+ xnCn = b
y cuando nos preguntamos si el sistema de ecuaciones dado tiene o no soluciones, en térmi-
nos de la combinación lineal (∗) nos estamos preguntando si el vector columna de términos
independientesb es o no combinación lineal de los vectores columna de coeficientesC1,
. . . ,Cn. Aśı, el problema de resolver un sistema de ecuaciones lineales se ha convertido
en el problema de determinar cuándo un vector dado es o no combinación lineal de otros
vectores dados, y los dos problemas son equivalentes. Conviene entonces saber quién es
el subconjunto formado por todas las combinaciones lineales de los vectoresC1, . . . ,Cn,
para saber si el vectorb pertenece o no a este conjunto.
Antes de continuar, notemos que todavı́a no hemos encontrado un método para resol-
ver sistemas de ecuaciones lineales, pero hemos reinterpretado el problema en un contexto
que nos seŕa útil para el procedimiento que daremos más adelante.
Subespacios generados por un subconjunto de vectores.Al principio de esta sección
vimos dos ejemplos enR3 donde todas las combinaciones lineales de un vector (respecti-
vamente, dos vectores) deR3 generaban un subespacio vectorial deR3, a saber, una lı́nea
rectaL (respectivamente, un planoP). Que esto es cierto en general es el contenido de la
proposicíon siguiente:
Proposición 1.14. SeanV unK-espacio vectorial yv1, . . . , vn vectores dados deV . Si
K(v1, . . . , vn) es el subconjunto deV dado por las todas las combinaciones lineales de
los vectoresv1, . . . , vn:
K(v1, . . . , vn) := {α1v1 + · · ·+ αnvn : αi ∈ K} ⊆ V,
entoncesK(v1, . . . , vn) es un subespacio vectorial deV . Al subespacioK(v1, . . . , vn) se
le llamaŕa elsubespacio generadopor los vectoresv1, . . . , vn.
DEMOSTRACIÓN. El vector0V ∈ K(v1, . . . , vn) ya que0V = 0v1 + · · ·+ 0vn. Ahora, si
u ∈ K(v1, . . . , vn), entoncesu es de la formau = α1v1 + · · ·+ αnvn y aśı, paraλ ∈ K
se tiene que
λu = λ(α1v1 + · · ·+ αnvn) = (λα1)v1 + · · ·+ (λαn)vn
1.4. COMBINACIONES LINEALES 21
y por lo tantoλu ∈ K(v1, . . . , vn). Finalmente, siu,w ∈ K(v1, . . . , vn), entoncesu y w
son de la forma
u = α1v1 + · · ·+ αnvn y w = β1v1 + · · ·+ βnvn
y aśı
u+ w = (α1v1 + · · ·+ αnvn) + (β1v1 + · · ·+ βnvn)
= (α1 + β1)v1 + · · ·+ (αn + βn)vn
conαj+βj ∈ K, y por lo tantou+w tiene la forma requerida y ası́ u+w ∈ K(v1, . . . , vn).
�
De acuerdo a la interpretación que hicimos antes acerca de la solubilidad de un sistema
de ecuaciones lineales, escrito en la forma
(∗) x1C1 + x2C2 + · · ·+ xnCn = b
conCj los vectores columna del sistema yb el vector columna de los términos indepen-
dientes, todos ellos elementos del espacio vectorialKn, la proposicíon anterior tiene la
consecuencia inmediata siguiente:
Corolario 1.15. El sistema de ecuaciones lineales
(∗) x1C1 + x2C2 + · · ·+ xnCn = b
tiene solucíon enKn si y śolo el vector columnab pertenece al subespacio vectorial
K(C1, . . . , Cn) generado por los vectores columna de los coeficientes del sistema.
�
La construccíon anterior, del subespacio vectorial generado por un conjunto finito de
vectoresv1, . . . , vn, se puede generalizar para considerar el subespacio generado por un
subconjunto arbitrario de vectores deV : dado un subconjunto no vacı́oS ⊆ V , denotamos
conK(S) al subconjunto de combinaciones lineales finitas de vectores deS, i.e.,
K(S) := {λ1w1 + · · ·+ λkwk : λj ∈ K y w1, . . . , wk ∈ S}.
Observe queS ⊆ K(S) ya que cadaw ∈ S se puede escribir como la combinación
lineal w = 1 · w conw ∈ S. Note que áun cuandoS puede tener un ńumero infinito
de vectores,K(S) se define con combinaciones lineales de subconjuntos finitos deS.
Consecuentemente, la demostración de la proposición anterior sigue siendo válida para
K(S) y por lo tantoK(S) es un subespacio vectorial deV . Más áun,K(S) es elmenor
subespacio vectorial deV que contiene aS:
Proposición 1.16. Si V es unK-espacio vectorial yS ⊆ V es cualquier subconjunto,
entonces
K(S) =
⋂
S⊆W⊆V
W,
donde la intersección es sobre todos los subespacios vectorialesW deV que contienen a
S.
DEMOSTRACIÓN. ComoK(S) es un subespacio vectorial que contiene aS, entonces
K(S) es uno de losintersectandosy por lo tantoK(S) contiene a la intersección de la
proposicíon. Rećıprocamente, siW es un subespacio vectorial tal queS ⊆ W , entonces
para cualquier elementov = λ1w1 + · · ·+λkwk deK(S), como loswj ∈ S ⊆W y como
22 1. ESPACIOS VECTORIALES
W es subespacio vectorial, entoncesW contiene a cualquier combinación lineal de ele-
mentos deW , y por lo tantov ∈ W . Hemos aśı mostrado queK(S) ⊆ W para cualquier
subespacioW que contiene aS. Se sigue queK(S) ⊆
⋂
S⊆W⊆V
W , como se querı́a. �
Definición 1.17. Si S ⊆ V es cualquier subconjunto no vacı́o, al subespacio vectorial
K(S) de la proposicíon anterior se le llama elsubespacio vectorial generadoporS.
Si S = ∅, se extiende la definición anterior poniendoK(∅) := {0V }, el subespacio
que consta śolo del vector cero.
Ejemplo 19. Al principio de esta sección, paraV = R3, vimos que el subespacio generado
por un vectorv 6= 0 es una recta que pasa por el origen:R(v) = L. Tambíen vimos que si
u y v son dos vectores no colineales deR3, el subespacio generado por estos dos vectores
es un plano que pasa por el origen:R(u, v) = P.
Ejemplo 20. Si V = R2 y e1 = (1, 0), e2 = (0, 1), en el ejemplo 18 vimos que el
subespacio generado pore1 y e2 es todoR2.
Definición 1.18. SeaV unK-espacio vectorial. Si para un subconjuntoS ⊆ V se tiene
queK(S) = V , diremos queS generaal espacio vectorialV . Tambíen diremos que los
vectores deS songeneradoresdeV .
Con esta definición, el ejemplo 20 nos dice que los vectorese1 = (1, 0) y e2 = (0, 1)
generanR2.
Ejemplo 21. Si V = R3, los vectorese1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) son
generadores deR3. El argumento es similar al del ejemplo 20.
Ejemplo 22. En general, enRn, los vectorese1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . .), . . . ,
en = (0, . . . , 0, 1) (dondeek tiene un1 en el lugark y ceros en las otras componentes),
generanRn.
Ejemplo 23. Si V = K[x], los vectores1, x, x2, . . . , xn, . . ., generanK[x] ya que todo
polinomiof(x) = a0 + a1x + a2x2 + · · · + anxn es combinacíon lineal de algunos de
los vectores1, x, x2, . . . , xn, . . . usando los coeficientes def(x) como los escalares de la
combinacíon lineal, como en el ejemplo 17.
Ejemplo 24. Los vectoresv1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (1, 1, 0) no generana R3,
ya que cualquier combinación lineal de ellos tiene la tercera coordenada igual a cero y por
lo tanto ninǵun vector deR3 cuya tercera coordenada sea6= 0 es combinacíon lineal de
v1, v2, v3.
Ejemplo 25. Si V es cualquierK-espacio vectorial, el conjuntoS = V genera aV ya que
todov ∈ V se puede escribir como la combinación linealv = 1 · v.
EJERCICIO 24. SeaV un K-espacio vectorial. SiS ⊆ T son dos subconjuntos deV ,
demuestre queK(S) ⊆ K(T ).
EJERCICIO25. SiS ⊆ V genera aV y T ⊆ V es otro conjunto tal queS ⊆ T , demuestre
queT tambíen genera aV .
EJERCICIO26. SiW es un subespacio vectorial de unK-espacio vectorialV , demuestre
queK(W ) = W .
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 23
EJERCICIO27. SeaV = Mat2×2(R). Demuestre que las matrices siguientes generan aV :(
1 0
0 0
)
,
(
0 1
0 0
)
,
(
0 0
1 0
)
,
(
0 0
0 1
)
.
EJERCICIO28. SeaV = P2(K) el espacio vectorial de los polinomios con coeficientes en
un campoK y de grado≤ 2. Muestre que los polinomios1, 1 + x, 1 + x+ x2, generan a
V .
EJERCICIO29. SiV es cualquierK-espaciovectorial, ¿cuál es el subespacio generado por
S = {0V }?
EJERCICIO30. SiV = K (el campoK, considerado comoK-espacio vectorial), muestre
que1 ∈ K genera aV . ¿Puede dar otros subconjuntos que generan aV ? Explique.
EJERCICIO31. SeaV = R2.
(i) Si U = R(2, 1) es el subespacio deV generado por(2, 1) y W = R(0, 1) es el
subespacio deV generado por(0, 1), demuestre queR2 = U ⊕W .
(ii) Si U ′ = R(1, 1) es el subespacio deV generado por(1, 1) y W ′ = R(1, 0) es el
subespacio deV generado por(1, 0), demuestre queR2 = U ′ ⊕W ′.
EJERCICIO 32. SeaV = R3. SeanU = R(1, 0, 0) el subespacio deV generado por
(1, 0, 0) yW = R{(1, 1, 0), (0, 1, 1)} el subespacio deV generado por(1, 1, 0) y (0, 1, 1).
(i) Grafique estos subespacios.
(ii) Demuestre queR3 = U ⊕W .
1.5. Dependencia e independencia lineal
El ejemplo 25 de la sección anterior nos dice que dado cualquierK-espacio vectorial
V , siempre hay un conjunto de generadoresS deV , a saberS = V . El ejercicio 25 por su
parte nos dice que siS genera al espacioV , entonces cualquier conjunto que contenga a
S tambíen genera aV ; aśı, el problema no esagrandarun conjunto que genere aV , sino
por el contrario, sabiendo que un conjuntoS genera al espacioV , el problema es hallar
el conjunto con elmenornúmero de elementos que genere aV . Por ejemplo, quisiéramos
hallar un subconjuntoB ⊆ S tal queB siga generando aV pero queB sea ḿınimo en el
sentido de que si le quitamos cualquier vectorv ∈ B, el conjunto diferenciaB \ {v} ya
no genera aV . Con esto en mente, consideremos lo que nos dice el ejercicio 25: siS ⊆ V
genera aV y S ⊆ T ⊆ V , entoncesT tambíen genera aV . Esta afirmacíon se sigue
del ejercicio 24. Ahora, comoK(S) = V y T ⊆ V , entonces todos los elementos deT
pertenecen aK(S), i.e., son combinaciones lineales de elementos deS. Aśı, los elementos
deT que seañadieronaS, i.e.,T \ S, ya eran combinaciones lineales de elementos deS
y por lo tanto cada vez que un vectorv deK(T ) se expresa como combinación lineal de
elementos deT , digamos
(∗) v = a1w1 + · · ·+ akwk conaj ∈ K, wj ∈ T ,
si sucediera que alguno de los vectoreswj deT est́a enT \ S, escribíendolo como combi-
nacíon lineal de elementos deS:
wj = α1u1 + · · ·+ αrur conui ∈ S
24 1. ESPACIOS VECTORIALES
y substituyendo esta expresión parawj en (∗), tendremos quev es combinacíon lineal de
elementos deS. En otras palabras, los elementos deT \ S no aportan nuevos vectores al
considerar combinaciones lineales donde aparezcan porque los elementos deT \ S ya son
combinaciones lineales deS. Para expresar esto diremos que los vectores deT \ S son
linealmente dependientes deS; en forma precisa:
Definición 1.19. SeaT ⊆ V un subconjunto no vacı́o de un espacio vectorialV . Diremos
queT eslinealmente dependientesi existe alǵun vectorv ∈ T que es combinación lineal
de los otros vectores deT , es decir, siv ∈ K(T \ {v}).
Observaciones.(1). Note queno estamos pidiendo quetodos los vectoresu ∈ T sean
elementos del correspondiente subespacioK(T \ {u}); lo que estamos pidiendo es que
algún vectorv ∈ V satisfaga quev ∈ K(T \ {v}).
(2). En la definicíon anterior, al decir quev sea combinación lineal de losotros vectoresde
T , la redaccíon se preciśo diciendo que esto significa quev ∈ K(T \{v}). Esta precisíon es
necesaria para tomar en cuenta el caso extremo cuandoT = {0V } en el ejemplo siguiente:
Ejemplo 26. Si V es unK-espacio vectorial yT ⊆ V es un subconjunto tal que0V ∈ T ,
entoncesT es linealmente dependiente. En efecto, siT = {0V }, se tiene que
0V ∈ {0V } = K(∅) = K(T \ {0V }),
donde se uśo la convencíon de queK(∅) = {0V }.
SiT 6= {0V }, entonces existe unv 6= 0V enT y se tiene que0V = 0·v es combinacíon
lineal dev ∈ T \ {0V }.
Ejemplo 27. EnR2 el conjunto de vectoresv1 = (1, 0), v2 = (0, 1), v3 = (3, 4) es lineal-
mente dependiente ya que
v3 = (3, 4) = 3(1, 0) + 4(0, 1) = 3v1 + 4v2.
Ejemplo 28. EnR2 el conjunto de vectoresv1 = (1, 0), v2 = (0, 1), v3 = (3, 0) es lineal-
mente dependiente ya que
v3 = (3, 0) = 3(1, 0) + 0(0, 1) = 3v1 + 0v2.
Note que aqúı v2 = (0, 1) no es combinación lineal dev1 y v3 ya que cualquier
combinacíon deéstos tiene la segunda coordenada igual a0.
La proposicíon siguiente nos da una caracterización muyútil de los conjuntos lineal-
mente dependientes:
Proposición 1.20. SeanV unK-espacio vectorial yT ⊆ V un subconjunto. Las afirma-
ciones siguientes son equivalentes:
(1) El conjuntoT es linealmente dependiente.
(2)El vector0V se puede expresar como combinación lineal de algunos vectoresv1, . . . , vn
enT :
0V = a1v1 + · · ·+ anvn,
con alguno de los escalaresaj 6= 0 .
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 25
Nota: dado cualquier conjunto finito de vectoresv1, . . . , vn, el vector0V siemprees com-
binacíon lineal de estos vectores ya que
(†) 0V = 0v1 + · · ·+ 0vn,
y decimos que la combinación lineal (†), donde todos los escalares son0, es la combinación
lineal obvia o trivial. Lo que la parte (2) de la proposición pide es que0V se pueda expresar
como una combinación lineal no trivial, es decir, que no todos los coeficientes sean el
escalar0.
DEMOSTRACIÓN. (1) ⇒ (2): Si 0V ∈ T , se tiene la combinación lineal no trivial0V =
1 · 0V con0V ∈ T . Si 0V 6∈ V , comoT es linealmente dependiente, existe unv 6= 0V en
T que es combinación lineal de los otros elementos deT , i.e.,v ∈ K(T \ {v}). Note que
K(T \ {v}) 6= {0V } ya quev ∈ T ⊆ K(T \ {v}). Aśı, existen vectoresv1, . . . , vm ∈ T
tal que
v = a1v1 + · · ·+ amvm
y por lo tanto
0V = (−1)v + a1v1 + · · ·+ amvm
es una combinación lineal con el coeficiente−1 dev ∈ T distinto de0.
(1) ⇒ (2): Supongamos ahora que existen vectoresv1, . . . , vn ∈ T y escalaresa1, . . . , an
enK no todos cero, tal que
(∗) 0V = a1v1 + · · ·+ anvn.
Reordenando si hiciera falta, podemos suponer quea1 6= 0; multiplicando (∗) pora−11 ∈ K
se tiene que
0V = a−11 · 0V = a
−1
1 (a1v1 + · · ·+ anvn)
= v1 + (a−11 a2)v2 + · · ·+ (a
−1
1 an)vn
de donde, despejando,
v1 = (−a−11 a2)v2 + · · ·+ (−a
−1
1 an)vn,
es decir,v1 es combinacíon lineal dev2, . . . , vn ∈ T \ {v1}. �
Ejemplo 29. EnR2 los vectorese1 = (1, 0) y e2 = (0, 1) no son linealmente dependientes
ya que si0 = λ1e1 + λ2e2, entonces
(0, 0) = λ1(1, 0) + λ2(0, 1) = (λ1, 0) + (0, λ2) = (λ1, λ2)
y por lo tantoλ1 = 0 y λ2 = 0. Es decir, láunica combinacíon lineal dee1 y e2 que da el
vector0 es la combinación lineal trivial.
Definición 1.21. SeaV unK-espacio vectorial. SiT ⊆ V es un subconjunto, diremos que
T eslinealmente independientesi T no es linealmente dependiente. También diremos que
los vectores deT son linealmente independientes.
En vista de la proposición 1.18 la definicíon anterior es equivalente a:
Corolario 1.22. SeaV unK-espacio vectorial. SiT ⊆ V es un subconjunto, entonces
T es linealmente independiente si y sólo si la única representación del vector0V como
combinacíon lineal de elementos deT es la trivial, i.e., si
0V = a1v1 + · · ·+ anvn, convj ∈ T ,
entoncesa1 = · · · = an = 0. �
26 1. ESPACIOS VECTORIALES
El ejemplo 29 nos dice quee1 y e2 son linealmente independientes enR2.
Ejemplo 30. SeaV un K-espacio vectorial. Siv ∈ V con v 6= 0V , entonces{v} es
linealmente independiente ya que siλv = 0V es cualquier combinación lineal dev que da
el vector0V , y si sucediera queλ 6= 0, entonces multiplicando porλ−1 ∈ K se obtiene
que
λ−1(λv) = λ−10V = 0V ,
i.e.,v = λ−1(λv) = 0V , en contradiccíon con serv 6= 0V .
Ejemplo 31. Al conjunto vaćıo ∅ lo consideraremos linealmente independiente ya que para
que un conjunto sea linealmente dependiente tiene que tener vectores.
Ejemplo 32. EnK[x] los vectores1, x, x2, . . . , xn son linealmente independientes, ya que
si
(∗) a0 · 1 + a1 · x+ a2 · x2 + · · ·+ an · xn = 0
es cualquier combinación lineal de ellos que nos da el vector0 ∈ K[x], como el vector0
deK[x] es el polinomio cero y como en (∗) a la izquierda se tiene el polinomioa0 +a1x+
a2x
2 + · · ·+ anxn, éste es cero si y sólo si todos sus coeficientes son0, i.e.,aj = 0 para
todaj y por lo tanto los vectores1,x, x2, . . . , xn son linealmente independientes.
Las propiedades siguientes son inmediatas:
Proposición 1.23. SeaV unK-espacio vectorial.
(1) Si T1 ⊆ T2 ⊆ V son subconjuntos yT1 es linealmente dependiente, entoncesT2
tambíen lo es.
(2) Si T1 ⊆ T2 ⊆ V son subconjuntos yT2 es linealmente independiente, entoncesT1
tambíen lo es.
DEMOSTRACIÓN. (1): ComoT1 es linealmente dependiente, el vector0V se puede expre-
sar como
(∗) 0V = a1v1 + · · ·+ anvn
con alǵun aj 6= 0 y los vj ∈ T1. Pero comoT1 ⊆ T2, entonces losvj ∈ T2 y aśı (∗) nos
dice queT2 es linealmente dependiente.
La parte (2) se sigue de (1). �
EJERCICIO33. Muestre que los vectores deR2 siguientes son linealmente independientes:
(i) u = (1, 0), v = (1, 1).
(ii) u = (2, 1), v = (1, 0).
(iii) u = (1, 2), v = (1, 3).
(iv) u = (3, 1), v = (0, 2).
EJERCICIO34. Muestre que los vectores deR3 siguientes son linealmente independientes:
(i) u = (1, 1, 1), v = (0, 1,−2).
(ii) u = (−1, 1, 0), v = (0, 1, 2).
(iii) u = (1, 1, 0), v = (1, 1, 1), w = (0, 1,−1).
(iv) u = (0, 1, 0), v = (0, 2, 1), w = (1, 5, 3).
EJERCICIO35. Muestre que los vectores deR2 siguientes son linealmente dependientes,
expresando av como combinacíon lineal dea y b:
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 27
(i) v = (1, 0); a = (1, 1), b = (0, 1).
(ii) v = (2, 1); a = (1, 0), b = (1, 1).
(iii) v = (1, 2); a = (2, 1), b = (1,−1).
(iv) v = (3, 4); a = (0, 12), b = (6, 0).
EJERCICIO 36. SeaV = F(R,R) el R-espacio vectorial de funcionesf : R → R,
t 7→ f(t). Muestre que los vectores siguientes son linealmente independientes:
(i) v = 1, w = t.
(ii) v = t, w = t2.
(iii) v = t, w = et.
(iv) v = sen t, w = cos t.
(v) v = sen t, w = t.
(vi) v = sen t, w = sen(2t).
(vii) v = cos t, w = cos(3t).
(viii) v = t2, w = et.
EJERCICIO37. SeaV como en el ejercicio anterior. Demuestre que las funciones
v1 = sen t, v2 = sen(2t), v3 = sen(3t), . . . , vn = sen(nt)
son linealmente independientes, para cualquier naturaln ∈ N.
EJERCICIO 38. SeaV cualquierK-espacio vectorial. Siu, v ∈ V conv 6= 0V y si u, v
son linealmente dependientes, demuestre que existe un escalarλ ∈ K tal queu = λv.
EJERCICIO39. En elR-espacio vectorialP3(R), determine si el polinomiof(x) dado se
puede expresar como combinación lineal deg(x) y h(x):
(i) f(x) = x3 − 3x+ 5; g(x) = x3 + 2x2 − x+ 1, h(x) = x3 + 3x2 − 1.
(ii) f(x) = 4x3 + 2x2 − 6; g(x) = x3 − 2x2 + 4x+ 1, h(x) = 3x3 − 6x2 + x+ 4.
(iii) f(x) = x3+x2+2x+13; g(x) = 2x3−3x2+4x+1, h(x) = x3−x2+2x+3.
(iv) f(x) = x3 − 8x2 + 4x; g(x) = x3 − 2x2 + 3x− 1, h(x) = x3 − 2x+ 3.
EJERCICIO40. SeaV unK-espacio vectorial y seaT ⊆ V . Demuestre queT es lineal-
mente independiente si y sólo si todo subconjunto deT es linealmente independiente.
EJERCICIO 41. SeaV = C∞(R,R) el conjunto de funcionesf : R → R tales quef
es diferenciable (i.e., para todox ∈ R, existen todas las derivadasf ′(x), f ′′(x), f ′′′(x),
. . . , f (k)(x), . . .). Muestre queV es unR-espacio vectorial. Sif(t) = ert y g(t) = est,
conr 6= s enR, demuestre que{f, g} es linealmente independiente.
EJERCICIO 42. SeaA = (aij)n×n una matriz cuadrada con entradas en un campoK y
suponga queA es una matriz triangular superior. Demuestre que los vectores columna de
A, vistos como vectores enKn, son linealmente independientes.
EJERCICIO43. SeaPn(R) el R-espacio vectorial de polinomios de grado≤ n con coefi-
cientes reales y seaf(x) ∈ Pn(R) un polinomio de gradon. Demuestre que
f(x), f ′(x), f ′′(x), . . . , f (n)(x)
generanPn(R).
28 1. ESPACIOS VECTORIALES
EJERCICIO44. SiV = K[x], seaS = {f1, . . . , fn} ⊆ V un conjunto de polinomios no
nulos tales que sus grados son distintos: gr(fi) 6= gr(fj) para todai 6= j. Demuestre que
S es linealmente independiente.
1.6. Bases y dimensión
Si V es unK-espacio vectorial, sabemos que siempre existe un subconjuntoT ⊆ V
que genera aV , a saberT = V , y sabiendo queT genera aV quisíeramos encontrar un
subconjuntoB ⊆ T tal queB siga generando aV pero queB seaḿınimoen el sentido de
que si le quitamos cualquier vectorv ∈ B, el conjuntoB \ {v} ya no genera aV . Seǵun lo
que hemos estudiado en la sección anterior, siT es linealmente dependiente, le podemos
quitar vectores y el conjunto que resulta sigue generando aV . El lema siguiente captura lo
que est́a detŕas de las observaciones anteriores:
Lema 1.24. SeaV un K-espacio vectorial. SiB ⊆ V es un subconjunto ḿınimo de
generadores deV , entoncesB es linealmente independiente.
DEMOSTRACIÓN. Si B fuera linealmente dependiente, existirı́a un vectorv ∈ B que es
combinacíon lineal de los otros elementos deB, i.e., v ∈ K(B \ {v}). Ahora, como
B \ {v} ⊆ K(B \ {v}), entoncesB ⊆ K(B \ {v}) y comoK(B) = V , entonces
K(B \ {v}) = V , es decir,B \ {v} genera aV , en contradiccíon con la minimalidad de
B. �
Definición 1.25. SiV es unK-espacio vectorial, unabasedeV es un subconjuntoB ⊆ V
tal que:
(i) B genera aV ,
(ii) B es linealmente independiente.
Aśı, el lema anterior nos dice que todo subconjunto mı́nimo de generadores deV es
una base. El recı́proco tambíen es cierto:
Proposición 1.26. SeanV unK-espacio vectorial yB ⊆ V un subconjunto. Entonces,B
es un subconjunto ḿınimo de generadores deV si y śolo siB es base deV .
DEMOSTRACIÓN. Para probar la implicación faltante, supongamos queB es una base de
V pero que no es un subconjunto mı́nimo de generadores. Entonces, existev ∈ B tal que
B \ {v} genera aV y por lo tantov ∈ K(B \ {v}) = V y consecuentementeB no seŕıa
linealmente independiente. Una contradicción. �
En t́erminos de subconjuntos de vectores linealmente independientes deV , se tiene
una caracterización de bases análoga a la de la proposición anterior, pero antes necesitare-
mos un resultado preliminar:
Lema 1.27. SeanV un K-espacio vectorial yT ⊆ V un subconjunto linealmente in-
dependiente. Seav ∈ V \ T . Entonces,T ∪ {v} es linealmente dependiente si y sólo si
v ∈ K(T ).
DEMOSTRACIÓN. SiT∪{v} es linealmente dependiente, entonces existen vectoresu1, . . .,
un enT ∪ {v} tales que
(1) a1u1 + · · ·+ anun = 0V
con alǵun coeficienteaj 6= 0. ComoT es linealmente independiente, no puede suceder
que todos los vectoresuj anteriores estén enT y por lo tanto alguno de ellos debe serv.
1.6. BASES Y DIMENSÍON 29
Sin perder generalidad, supongamos queu1 = v. Aśı, la igualdad (1) es:
(2) a1v + a2u2 + · · ·+ anun = 0V ,
con alǵunaj 6= 0. De nuevo, no puede suceder quea1 = 0 ya que (2) implicaŕıa entonces
queu2, . . . , un es linealmente dependiente, en contradicción con el hecho de queT es
linealmente independiente. Se sigue quea1 6= 0 y aśı
v = a−11 (a1v) = a
−1
1 (−a2u2 − · · · − anun)
= (−a−11 a2)u2 + · · ·+ (−a
−1
1 an)un
y por lo tantov ∈ K(T ).
Rećıprocamente, siv ∈ K(T ), entonces existen vectoresu1, . . . , un ∈ T y escalares
a1, . . . , an ∈ K tales quev = a1u1 + · · ·+ anun y aśı
(3) 0V = a1u1 + · · ·+ anun + (−1)v.
Ahora, comov ∈ V \ T y los uj ∈ T , entoncesv 6= uj , para todos losj, y aśı en la
igualdad (3) el coeficiente dev es−1 6= 0, i.e.,T ∪ {v} es linealmente dependiente.�
Supongamos ahora queB es una base de un espacio vectorialV ; entoncesB es un
subconjunto ḿaximo de vectores linealmente independientes deV (en el sentido de que
al agregarle cualquier otro vector deV aB, el conjunto resultante es linealmente depen-
diente) ya que siv ∈ V \ B, comov ∈ V = K(B). el conjuntoB ∪ {v} el conjunto es
linealmente dependiente por el lema anterior. El recı́proco tambíen es cierto:
Proposición 1.28. SeanV unK-espacio vectorial yB ⊆ V un subconjunto. Entonces,B
es un subconjunto ḿaximo linealmente independiente deV si y śolo siB es base deV .
DEMOSTRACIÓN. Para probar la implicación faltante, supongamos queB es ḿaximo li-
nealmente independiente. ComoB es linealmente independiente, para probar queB es
base śolo falta probar queB genera aV . Supongamos que esto es falso, es decir, que exis-
te un vectorv ∈ V tal quev 6∈ K(B). Entonces, el lema anterior implica queB ∪ {v} es
linealmente independiente, en contradicción con la maximalidad deB. �
Espacios vectorialesde dimensión finita. A pesar de que existen espacios vectoriales con
bases infinitas, en este libro trataremos con más detalle el caso de espacios vectoriales con
bases finitas y el teorema siguiente nos dice cuándo existe una tal base finita para ciertos
espacios vectoriales.
Teorema 1.29.SiV es unK-espacio vectorial generado por un conjunto finito de vectores
T ⊆ V , entonces alǵun subconjunto deT es una base deV y, por lo tanto,V tiene una
base finita.
DEMOSTRACIÓN. SiT = ∅ ó T = {0V }, entoncesV = {0V } y el subconjunto∅ ⊆ T es
una base finita deV . Supongamos ahora queT contiene un vector distinto de0V , digamos
u1 6= 0V . Entonces,{u1} es linealmente independiente. Si{u1} es base deV ya acabamos.
Si {u1} no es base deV , entonces existe unu2 ∈ T \ {u1} tal queu2 no es combinación
lineal deu1 y aśı {u1, u2} es linealmente independiente. Si es base deV , ya acabamos.
Si no lo es, procediendo inductivamente supongamos queB = {u1, . . . , un} ⊆ T es
linealmente independiente y que es máximo con esta propiedad, es decir, para cualquier
v ∈ T \B se tiene queB∪{v} es linealmente dependiente. Mostraremos queB es base de
V y para esto basta probar queB genera aV . Ahora, comoT genera aV , basta entonces
mostrar queT ⊆ K(B). Para esto, seav ∈ T . Si v ∈ B, entoncesv ∈ K(B). Si v 6∈ B,
30 1. ESPACIOS VECTORIALES
entonces por la hiṕotesis de maximalidad sobreB se tiene queB ∪ {v} es linealmente
dependiente y por el lema anterior esto implica quev ∈ K(B) como se querı́a. �
El teorema siguiente captura la propiedad más importante de los espacios vectoriales
que tienen una base finita:
Teorema 1.30.SeaV unK-espacio vectorial y supongamos queB = {v1, . . . , vn} es un
subconjunto finito deV . Entonces,B es una base deV si y śolo si cada vectorv ∈ V se
puede expresar en formáunica como combinación lineal de los vectores deB, i.e., existen
escalareśunicosλ1, . . . , λn enK tales que
(∗) v = λ1v1 + · · ·+ λnvn.
DEMOSTRACIÓN. SiB es base deV y v ∈ V , comoB genera aV , entoncesv es combi-
nacíon lineal de los elementos deB, digamos
(1) v = λ1v1 + · · ·+ λnvn.
Supongamos que
(2) v = γ1v1 + · · ·+ γnvn
es otra expresión dev en t́erminos deB, con losγj ∈ K. Restando (1) y (2) se obtiene:
(†) 0V = (λ1 − γ1)v1 + · · ·+ (λn − γn)vn
y como los vectoresv1, . . . , vn son linealmente independientes, la igualdad (†) implica que
λj −γj = 0 para todaj , y por lo tantoλj = γj , para todaj; es decir, la expresión (∗) para
v esúnica.
Rećıprocamente, si cadav ∈ V se puede expresar en formaúnica de la forma (∗),
entoncesB genera aV y sólo falta probar queB es linealmente independiente. Pero esto
es directo ya que si
(3) 0V = λ1v1 + · · ·+ λnvn
con losλj ∈ K, como
(4) 0V = 0v1 + · · ·+ 0vn,
la unicidad de la expresión de0V como combinacíon lineal de losvj , implica que los
escalares en (3) y (4) son iguales, i.e.,λj = 0 para todaj, y por lo tantov1, . . . , vn son
linealmente independientes. �
El teorema 1.29 nos dice que todo espacio vectorial con un conjunto finito de genera-
dores (a veces decimos,finitamente generadopara indicar lo anterior), tiene una base finita.
A continuacíon probaremos uno de los resultados más importantes de la teorı́a que estamos
desarrollando: todas las bases de un espacio vectorial finitamente generado tienen el mis-
mo ńumero de elementos. La demostración esencialmente considera dos bases del espacio
dado y reemplaza los vectores de una base con los de la otra. Para ver cómo se hace esto
necesitaremos el lema siguiente, cuyo nombre proviene del método en su demostración:
Lema 1.31(Lema de reemplazamiento). SeaV unK-espacio vectorial generado por un
conjunto finito de vectoresv1, . . . , vn. Supongamos quew1, . . . , wm sonm vectores deV
conm > n. Entonces, los vectoresw1, . . . , wm son linealmente dependientes. Equivalen-
temente, siw1, . . . , wm son linealmente independientes, entoncesm ≤ n.
1.6. BASES Y DIMENSÍON 31
DEMOSTRACIÓN. Supongamos quew1, . . . , wm son linealmente independientes. Como
v1, . . . , vn generanV , para el vectorw1 ∈ V existen escalaresa1, . . . , an enK tales que
(1) w1 = a1v1 + · · ·+ anvn.
Ahora, como estamos asumiendo que loswj son linealmente independientes, entonces
w1 6= 0V y aśı en (1) alǵun ai 6= 0. Renumerando si hiciera falta podemos suponer que
a1 6= 0 y aśı podemos despejarv1 de (1) para obtener:
v1 = a−11 w1 − a
−1
1 a2v2 − · · · − a
−1
1 anvn,
por lo quev1 ∈ K(w1, v2, . . . , vn) y aśı
V = K(v1, v2, . . . , vn) ⊆ K(w1, v2, . . . , vn) ⊆ V
y consecuentementeV = K(w1, v2, . . . , vn), es decir, ya reemplazamos av1 porw1 en
un conjunto de generadores deV . La idea es continuar inductivamente el proceso an-
terior hasta reemplazar todos los vectoresv1, v2, . . . , vn por vectoresw1, . . . , wn de tal
forma que{w1, . . . , wn} todav́ıa genere aV . La base de la inducción es la substitución
dev1 porw1 que hicimos antes. Supongamos ahora que ya reemplazamosk vectores de
{v1, . . . , vn} por k vectores de{w1, . . . , wn} con 1 ≤ k < n. Renumerando si hicie-
ra falta podemos pensar que reemplazamosv1, . . . , vk por w1, . . . , wk de tal forma que
{w1, . . . , wk, vk+1, . . . , vn} generaV . Entonces, para el vectorwk+1 ∈ V existen escala-
resb1, . . . , bk, ck+1, . . . , cn enK tales que
(2) wk+1 = b1w1 + · · ·+ bkwk + ck+1vk+1 + · · ·+ cnvn.
Observe ahora que en (2) no se puede tener que todos loscj = 0, ya que si esto sucediera
(2) diŕıa quew1, . . . , wk, wk+1 son linealmente dependientes (el coeficiente dewk+1 es
1 6= 0), en contradiccíon con la suposición inicial de que loswi son linealmente indepen-
dientes. Se sigue que algún ci 6= 0. Renumerando si hiciera falta podemos suponer que
ck+1 6= 0 y aśı se puede despejar avk+1 de (2) para obtenervk+1 como combinacíon
lineal dew1, . . . , wk, wk+1, vk+2, . . . , vn, i.e.,
vk+1 ∈ K(w1, . . . , wk+1, vk+2, . . . , vn),
y como, por hiṕotesis de inducción K(w1, . . . , wk, vk+1, vk+2, . . . , vn) = V , se sigue
quew1, . . . , wk+1, vk+2, . . . , vn generaV . Aśı, ya reemplazamos avk+1 porwk+1. Por
induccíon se sigue que podemos reemplazar a todos losv1, . . . , vn porw1, . . . , wn de tal
forma quew1, . . . , wn todav́ıa genere aV .
Finalmente, si sucediera quem > n, entonceswm ∈ K(w1, . . . , wn) se puede escribir
como
w = α1w1 + · · ·+ αnwn
con losαj ∈ K, y por lo tanto{w1, . . . , wn, . . . , wm} seŕıa linealmente dependiente.�
La consecuencia ḿas importante de este lema y de su demostración es:
Teorema 1.32. SeaV un K-espacio vectorial finitamente generado y supongamos que
A = {v1, . . . , vn} yB = {w1, . . . , wm} son bases deV . Entonces,m = n.
DEMOSTRACIÓN. ComoA generaV y comoB es linealmente independiente, el lema
anterior nos dice quem ≤ n. Cambiando los papeles deA y B se sigue quen ≤ m y por
lo tantom = n. �
Gracias a este teorema tiene sentido la definición siguiente:
32 1. ESPACIOS VECTORIALES
Definición 1.33. SeaV unK-espacio vectorial y supongamos queB = {v1, . . . , vn} es
una base deV . Por el teorema anterior el númeron est́a uńıvocamente determinado por
V . Al númeron de vectores en cualquier base deV se le llama ladimensíon del espacio
vectorialV y se denotan = dimK(V ). Algunas veces decimos queV es unK-espacio
vectorial dedimensíon finitan.
Ejemplo 33. Si V = Kn, entoncesdimK(Kn) = n. En efecto, śolo tenemos que mostrar
una base deKn conn vectores. Para esto, pongamos
e1 = (1, 0, . . . , 0); e2 = (0, 1, 0, . . . , 0); . . . ; en = (0, . . . , 0, 1)
enKn. Entonces,
(i) Los vectorese1, . . . , en generanKn ya que siv = (a1, . . . , an) es cualquier vector de
Kn, se tiene que
v = (a1, . . . , an) = (a1, 0, . . . , 0) + · · ·+ (0, . . . , 0, 1)
= a1(1, 0, . . . , 0) + · · ·+ an(0, . . . , 0, 1)
= a1e1 + · · ·+ anen.
(ii) Los vectorese1, . . . , en sonlinealmente independientesya que siα1, . . . , αn son esca-
lares tales que
0 = (0, . . . , 0) = α1e1 + · · ·+ αnen
= (α1, 0, . . . , 0) + · · ·+ (0, . . . , 0, αn)
= (α1, . . . , αn),
entoncesα1 = 0, α2 = 0, . . . ,αn = 0, por definicíon

Otros materiales