Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Álgebra lineal 82 Antes se defi nieron en R2 y R3 los conceptos de combinación lineal y dependencia lineal. Dada la importancia de tales conceptos los recordamos para el caso de Rm. Defi nición 3.4.2. Sean A1, A2, ..., An como antes. Las expresiones x1A1 x2A2 ⋅ ⋅ ⋅ xnAn son llamadas combinaciones lineales de A1, A2, ..., An y al conjunto de todas las combinaciones lineales les llamamos el espacio columna de A. Observación 3.4.1. Note que el sistema Ax � B tiene solución ⇔ B está en el espa- cio columna de A. Si B es cero, la ecuación ax � 0 siempre tiene solución. Puede suceder que la ecuación AX � 0 tenga más de una solución, en este caso di- remos que las columnas de A son linealmente dependientes; la importancia de este caso es tal que lo formulamos de manera general. Defi nición 3.4.3. Sean A1, A2, ..., Ak vectores en R m. Decimos que son linealmente in- dependientes si la única solución de la ecuación x1A1 x2A2 ⋅ ⋅ ⋅ xkAk � 0 es x1 � x2 � ⋅ ⋅ ⋅ � xk � 0. En caso que la ecuación anterior tenga más de una solución, decimos que los vectores son linealmente dependientes. Teorema 3.4.1. Los vectores r u 1, r u 2, ..., r u p, con p � 2, son linealmente dependien- tes ⇔ al menos uno de ellos es combinación lineal de los restantes. Más precisamente, si r u 1 no es cero, entonces los vectores son linealmente dependientes ⇔ algún r u j(j 1) es combinación lineal de los previos. Demostración. Es claro que si uno es combinación lineal de los restantes, enton- ces son linealmente dependientes. Supongamos que los vectores son linealmente dependientes, entonces la ecua- ción x1 r u 1 x2 r u 2 ⋅ ⋅ ⋅ xp r u p� r 0 tiene una solución con al menos uno de los escalares no cero. Sea k el mayor índice tal que xk � 0, entonces la ecuación x1 r u 1 x2 r u 2 ⋅ ⋅ ⋅ xp r u p � r 0 se reduce a x1 r u 1 x2 r u 2 ⋅ ⋅ ⋅ xk r u k� r 0 y k 1, pues como r u 1 no es cero, k no puede ser 1. De la última ecuación despeje r u k y se tiene el resultado. Observación 3.4.2. En Rm cualquier colección de l � m 1 vectores es linealmente dependiente. Demostración. La conclusión se obtiene del teorema 1.3.3, página 20. 3.4.1. Subespacios En muchos problemas que se abordan usando vectores, es importante saber qué sub- conjuntos del espacio satisfacen las mismas propiedades del espacio total, respecto a las operaciones. Esto se precisa en la siguiente defi nición. Defi nición 3.4.4. Sea W un subconjunto no vacío de Rn. Se dice que W es su subes- pacio, si satisface las siguientes propiedades. 1. Para todos α, β ∈W se tiene α β ∈W, es decir, W es cerrado bajo la suma. 2. Para todo α ∈W y para todo λ ∈ R, λα ∈ W, es decir, W es cerrado bajo producto por escalar. Ejemplo 3.4.1. Determinaremos cuáles de los siguientes conjuntos son subespacios. 1. Sea W � {(x, y) ∈ R2 | x, y ∈ Z}. Notemos que al sumar dos elementos de W, el re- sultado también es un elemento de W, pues las coordenadas de los elementos de W son enteros y la suma de enteros es nuevamente un entero. Sin embargo, al tomar λ � 2 y α � (1, 2) ∈ W, el resultado λα = ( 2 , 2 2 ) ∉ W, es decir, W no es subespacio. Álgebra Lineal Capítulo 3 Espacios vectoriales 3.4. El espacio vectorial Rn 3.4.1. Subespacios
Compartir