Logo Studenta

Álgebra Lineal Mora (97)

¡Estudia con miles de materiales!

Vista previa del material en texto

Álgebra lineal
82
Antes se defi nieron en R2 y R3 los conceptos de combinación lineal y dependencia 
lineal. Dada la importancia de tales conceptos los recordamos para el caso de Rm.
Defi nición 3.4.2. Sean A1, A2, ..., An como antes. Las expresiones x1A1 	 x2A2 	 ⋅ ⋅ ⋅ 	
xnAn son llamadas combinaciones lineales de A1, A2, ..., An y al conjunto de todas las 
combinaciones lineales les llamamos el espacio columna de A.
Observación 3.4.1. Note que el sistema Ax � B tiene solución ⇔ B está en el espa-
cio columna de A. Si B es cero, la ecuación ax � 0 siempre tiene solución.
Puede suceder que la ecuación AX � 0 tenga más de una solución, en este caso di-
remos que las columnas de A son linealmente dependientes; la importancia de este 
caso es tal que lo formulamos de manera general.
Defi nición 3.4.3. Sean A1, A2, ..., Ak vectores en R
m. Decimos que son linealmente in-
dependientes si la única solución de la ecuación x1A1 	 x2A2 	 ⋅ ⋅ ⋅ 	 xkAk � 0 es x1 � x2 � 
⋅ ⋅ ⋅ � xk � 0. En caso que la ecuación anterior tenga más de una solución, decimos que 
los vectores son linealmente dependientes.
Teorema 3.4.1. Los vectores 
r
u 1, 
r
u 2, ..., 
r
u p, con p � 2, son linealmente dependien-
tes ⇔ al menos uno de ellos es combinación lineal de los restantes. Más precisamente, si 
r
u 1 no es cero, entonces los vectores son linealmente dependientes ⇔ algún 
r
u
j(j 
 1) es 
combinación lineal de los previos.
Demostración. Es claro que si uno es combinación lineal de los restantes, enton-
ces son linealmente dependientes.
Supongamos que los vectores son linealmente dependientes, entonces la ecua-
ción x1
r
u
1 	 x2
r
u
2 	 ⋅ ⋅ ⋅ 	 xp
r
u
p� 
r
0 tiene una solución con al menos uno de los escalares
no cero. Sea k el mayor índice tal que xk � 0, entonces la ecuación x1
r
u
1 	 x2
r
u
2 	 ⋅ ⋅ ⋅ 	 
xp
r
u
p � 
r
0 se reduce a x1
r
u
1 	 x2
r
u
2 	 ⋅ ⋅ ⋅ 	 xk
r
u
k� 
r
0 y k 
 1, pues como 
r
u
1 no es cero, k 
no puede ser 1. De la última ecuación despeje 
r
u
k y se tiene el resultado. 
Observación 3.4.2. En Rm cualquier colección de l � m 	 1 vectores es linealmente 
dependiente.
Demostración. La conclusión se obtiene del teorema 1.3.3, página 20. 
3.4.1. Subespacios
En muchos problemas que se abordan usando vectores, es importante saber qué sub-
conjuntos del espacio satisfacen las mismas propiedades del espacio total, respecto a 
las operaciones. Esto se precisa en la siguiente defi nición.
Defi nición 3.4.4. Sea W un subconjunto no vacío de Rn. Se dice que W es su subes-
pacio, si satisface las siguientes propiedades.
 1. Para todos α, β ∈W se tiene α 	 β ∈W, es decir, W es cerrado bajo la suma.
 2. Para todo α ∈W y para todo λ ∈ R, λα ∈ W, es decir, W es cerrado bajo producto por 
escalar.
Ejemplo 3.4.1. Determinaremos cuáles de los siguientes conjuntos son subespacios.
 1. Sea W � {(x, y) ∈ R2 | x, y ∈ Z}. Notemos que al sumar dos elementos de W, el re-
sultado también es un elemento de W, pues las coordenadas de los elementos de 
W son enteros y la suma de enteros es nuevamente un entero. Sin embargo, al 
tomar λ � 2 y α � (1, 2) ∈ W, el resultado λα = ( 2 , 2 2 ) ∉ W, es decir, W no 
es subespacio.
	Álgebra Lineal
	Capítulo 3 Espacios vectoriales
	3.4. El espacio vectorial Rn
	3.4.1. Subespacios

Otros materiales