Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
F́ısica, Matemáticas y Estad́ıstica Primer Curso ÁLGEBRA LINEAL I Juan A. Navarro González 18 de octubre de 2014 2 Índice General 1 Preliminares 1 1.1 Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2 Espacios Vectoriales 7 2.1 Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 7 2.2 Teoŕıa de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3 Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3 Aplicaciones Lineales 15 3.1 Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.2 Teorema de Isomorf́ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.3 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.4 El Espacio Vectorial HomK(E,E ′) . . . . . . . . . . . . . . . . . . . . . . . . 20 4 Geometŕıa Eucĺıdea 21 4.1 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.2 Espacios Vectoriales Eucĺıdeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 5 Endomorfismos 27 5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 5.3 Diagonalización de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 29 3 4 ÍNDICE GENERAL Caṕıtulo 1 Preliminares 1.1 Relaciones de Equivalencia Definición: Dar una relación ≡ en un conjunto X es dar una familia de parejas ordenadas de X, y pondremos x ≡ y cuando la pareja (x, y) esté en tal familia. Diremos que es una relación de equivalencia si tiene las siguientes propiedades: 1. Reflexiva: x ≡ x, ∀x ∈ X. 2. Simétrica: x, y ∈ X, x ≡ y ⇒ y ≡ x. 3. Transitiva: x, y, z ∈ X, x ≡ y, y ≡ z ⇒ x ≡ z. Ejemplo: Sea n un número natural, n ≥ 2. Diremos que dos números enteros a, b ∈ Z son congruentes módulo n cuando b − a es múltiplo de n: a ≡ b (mód. n) cuando b − a = cn para algún c ∈ Z . La relación de congruencia módulo n es una relación de equivalencia en el conjunto Z: Reflexiva: Si a ∈ Z, entonces a ≡ a (mód. n) porque a − a = 0 · n. Simétrica: Si a ≡ b (mód. n), entonces b − a = cn, donde c ∈ Z; luego a − b = (−c)n, y por tanto b ≡ a (mód. n). Transitiva: Si a ≡ b y b ≡ c (mód. n), entonces b− a = xn y c− b = yn, donde x, y ∈ Z; luego c − a = (c − b) + (b − a) = yn + xn = (y + x)n, y por tanto a ≡ c (mód. n). Esta relación de equivalencia tiene además la siguiente propiedad: a ≡ b (mód. n) ⇒ a + c ≡ b + c y ac ≡ bc (mód. n) c ∈ Z pues si b = a + xn, donde x ∈ Z, entonces b + c = a + c + xn y bc = (a + xn)c = ac + xcn. Definición: Dada una relación de equivalencia ≡ en un conjunto X, llamaremos clase de equivalencia de un elemento x ∈ X al subconjunto de X formado por todos los elementos relacionados con x. Se denota x̄ = [x] = {y ∈ X : x ≡ y} y diremos que es la clase de x respecto de la relación de equivalencia ≡. Diremos que un subconjunto C ⊆ X es una clase de equivalencia de la relación ≡ si es la clase de equivalencia de algún elemento x ∈ X; es decir, C = x̄ para algún x ∈ X. El conjunto cociente de X por ≡ es el conjunto formado por las clases de equivalencia de ≡, y se denota X/≡. Teorema 1.1.1 Si ≡ es una relación de equivalencia en un conjunto X, en el conjunto cociente X/≡ sólo se identifican los elementos equivalentes: [x] = [y] ⇔ x ≡ y ; x, y ∈ X . 1 2 CAPÍTULO 1. PRELIMINARES Demostración: Si [x] = [y], entonces y ∈ [y] = [x]; luego x ≡ y. Rećıprocamente, si x ≡ y, veamos que [y] ⊆ [x]. En efecto, si z ∈ [y], entonces y ≡ z, y por la propiedad transitiva x ≡ z; luego z ∈ [x]. Ahora bien, si x ≡ y, entonces y ≡ x; luego también [x] ⊆ [y], y [x] = [y]. Corolario 1.1.2 Cada elemento x ∈ X está en una única clase de equivalencia de ≡. Demostración: x está en [x], porque x ≡ x, y si x ∈ [y], entonces y ≡ x; luego [y] = [x]. Ejemplo: Respecto de la relación de congruencia módulo n, la clase de equivalencia de a ∈ Z es [a] = a + nZ = {a + cn : c ∈ Z} , y coincide con la clase [r] del resto de la división de a por n, pues a = cn + r. Por tanto, el conjunto cociente, que se denota Z/nZ, tiene exactamente n elementos: Z/nZ = {[1], [2], . . . , [n] = [0]} . 1.2 Números Complejos Definición: Los números complejos son las parejas de números reales z = x + yi (donde x ∈ R se llama parte real de z e y ∈ R se llama parte imaginaria) que se suman y multiplican con las siguientes reglas (i2 = −1): (x1 + y1i)+(x2 + y2i) = (x1 + x2) + (y1 + y2)i (x1 + y1i)·(x2 + y2i) = (x1x2 − y1y2) + (x1y2 + x2y1)i El conjunto de todos los números complejos se denota C. El conjugado de un número complejo z = x + yi es el número complejo z̄ = x − yi, y el módulo de z es el número real |z| = √ z · z̄ = √ x2 + y2 ≥ 0. Las siguientes propiedades son de comprobación sencilla: z + u = z̄ + ū zu = z̄ū ¯̄z = z |z| = |z̄| |z| = 0 ⇔ z = 0 |zu| = |z| · |u| z + z̄ ≤ 2|z| |z + u| ≤ |z| + |u| excepto la última. Para demostrarla bastará ver que |z + u|2 ≤ (|z| + |u|)2: |z + u|2 = (z + u)(z + u) = (z + u)(z̄ + ū) = |z|2 + |u|2 + zū + z̄u = |z|2 + |u|2 + zū + zū ≤ |z|2 + |u|2 + 2|zū| = |z|2 + |u|2 + 2|z| · |ū| = |z|2 + |u|2 + 2|z| · |u| = (|z| + |u|)2 . Si un número complejo z = x + yi no es nulo, tenemos que zz̄ = |z|2 = x2 + y2 > 0, aśı que el inverso de z existe y es el número complejo z−1 = z̄ |z|2 = x x2 + y2 − y x2 + y2 i . Exponencial Compleja Definición: Si t ∈ R, pondremos eit = cos t + i sen t, donde el seno y coseno se consideran en radianes para que ddt (e it) = ieit. Tenemos la fórmula de Euler (1707-1783) e2πi = 1 y en general e2πni = 1 para todo número entero n. Además estos números complejos son de módulo |eit|2 = cos2 t + sen2 t = 1, y todo número complejo de módulo 1 es eiθ para 1.3. PERMUTACIONES 3 algún número real θ. Si z es un número complejo de módulo ρ 6= 0, el módulo de z/ρ es 1, aśı que z/ρ = eiθ y z = ρeiθ = ρ(cos θ + i sen θ) para algún número real θ = arg z que llamamos argumento de z (bien definido salvo la adición de un múltiplo entero de 2π). Cuando z = x + yi; x, y ∈ R, tenemos que cos θ = x/ρ , sen θ = y/ρ , tan θ = y/x . Ejemplos: Si ρ es un número real positivo, el argumento de ρ es 0, el de ρi es π/2, el de −ρ es π y el de −ρi es 3π/2 porque ρ = ρei0 , ρi = ρeiπ/2 , −ρ = ρeπi , −ρi = ρe3πi/2. Por otra parte, las fórmulas del seno y coseno de una suma expresan que eiteit ′ = ei(t+t ′) eiteit ′ = (cos t + i sen t)(cos t′ + i sen t′) = = ( (cos t)(cos t′) − (sen t)(sen t′) ) + i ( (cos t)(sen t′) + (sen t)(cos t′) ) = cos(t + t′) + i sen (t + t′) = ei(t+t ′) ; y la igualdad (ρeiθ)(ρ′eiθ ′ ) = ρρ′ei(θ+θ ′) muestra que arg (z1z2) = (arg z1) + (arg z2) Por tanto, si u ∈ C y un = z = ρeiθ, entonces |u|n = |un| = ρ y narg (u) = arg (un) = θ + 2πk, donde k es entero. Luego |u| = n√ρ y arg (u) = θn + 2kπn , y claramente basta tomar k = 0, . . . , n− 1. Aśı, todo número complejo no nulo z = ρeiθ tiene n ráıces n-ésimas complejas, que son: n √ ρ ei( θ+2kπ n ) Por último, si z = x + yi pondremos ez = exeyi = ex(cos y + i sen y), de modo que ez ′+z = ez ′ ez para cualesquiera números complejos z′, z. Cuando eu = z, decimos que u es el logaritmo neperiano de z. Aśı, el logaritmo neperiano de z = ρeiθ = eln ρeiθ = eln ρ+iθ es ln z = ln ρ + i(θ + 2kπ). 1.3 Permutaciones Definición: Sean X e Y dos conjuntos. Dar una aplicación f : X → Y es asignar a cada elemento x ∈ X un único elemento f(x) ∈ Y , llamado imagen de x por laaplicación f . Si g : Y → Z es otra aplicación, la aplicación g ◦ f : X → Z, (g ◦ f)(x) = g ( f(x) ) , es la composición de g y f . La identidad de un conjunto X es la aplicación IdX : X → X, IdX(x) = x. Sea f : X → Y una aplicación. Si A ⊆ X, pondremos f(A) = {f(x) : x ∈ A} y es un subconjunto de Y . Si B ⊆ Y , pondremos f−1(B) = {x ∈ X : f(x) ∈ B} y es un subconjunto de X. Si y ∈ Y , puede ocurrir que f−1(y) no tenga ningún elemento o tenga más de uno, de modo que, en general, f−1 no es una aplicación de Y en X. Diremos que una aplicación f : X → Y es inyectiva si elementos distintos tienen imágenes distintas: x, y ∈ X, f(x) = f(y) ⇒ x = y 4 CAPÍTULO 1. PRELIMINARES (i.e., cuando, para cada y ∈ Y se tiene que f−1(y) tiene un elemento o ninguno) y diremos que f es epiyectiva si todo elemento de Y es imagen de algún elemento de X: y ∈ Y ⇒ y = f(x) para algún x ∈ X , es decir, cuando f(X) = Y o, lo que es igual, cuando, para cada y ∈ Y se tiene que f−1(y) tiene al menos un elemento. Diremos que una aplicación f : X → Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando cada elemento y ∈ Y es imagen de un único elemento de X, de modo que f−1(y) tiene un único elemento, y en tal caso f−1 : Y → X śı es una aplicación, llamada aplicación inversa de f porque f−1 ◦ f = IdX y f ◦ f−1 = IdY . Definición: Las permutaciones de n elementos son las aplicaciones biyectivas σ : {1, . . . , n} −→ {1, . . . , n} . El conjunto de todas las permutaciones de n elementos se denota Sn, y está claro que su cardinal es n! = n · (n − 1) · . . . · 2 · 1. El producto de permutaciones es la composición de aplicaciones, y como son aplicaciones biyectivas, toda permutación σ tienen una permutación inversa σ−1, de modo que σ−1(j ) = i cuando σ(i) = j. Además, (στ)−1 = τ−1σ−1. Definición: Si d ≥ 2, dados a1, . . . , ad ∈ {1, . . . , n} distintos, denotaremos (a1 . . . ad) la permutación σ ∈ Sn tal que σ(ai) = ai+1, entendiendo que σ(ad) = a1, y deja fijos los restantes elementos. Diremos que tal permutación (a1 . . . ad) es un ciclo de longitud d. Los ciclos (a1a2) de longitud 2 se llaman trasposiciones. Diremos que dos ciclos (a1 . . . ad) y (b1 . . . bk) son disjuntos cuando ai 6= bj para todo par de ı́ndices i, j; en cuyo caso conmutan: (a1 . . . ad)(b1 . . . bk) = (b1 . . . bk)(a1 . . . ad). El inverso de un ciclo σ = (a1 . . . ad) es σ −1 = (ad . . . a1). Toda permutación σ descompone claramente en producto de ciclos disjuntos, y también en producto de trasposiciones, porque todo ciclo es producto de trasposiciones: (a1a2a3 . . . ad) = (a1a2)(a2a3) · · · (ad−1ad) . (1.1) Signo de una permutación Definición: Consideremos el siguiente polinomio con coeficientes enteros: ∆(x1, . . . , xn) = ∏ 1≤i<j≤n (xj − xi) Dada una permutación σ ∈ Sn, los factores de ∆(xσ(1), . . . , xσ(n)) = ∏ i<j(xσ(j) − xσ(i)) coinciden, eventualmente salvo el signo, con los de ∆(x1, . . . , xn). Luego ambos polinomios coinciden o difieren en un signo, ∆(xσ(1), . . . , xσ(n)) = ±∆(x1, . . . , xn), y llamaremos signo de σ al número entero sgn(σ) = ±1 tal que ∆(xσ(1), . . . , xσ(n)) = sgn(σ) · ∆(x1, . . . , xn) . (1.2) Llamaremos pares a las permutaciones de signo 1, e impares a las de signo –1. Teorema 1.3.1 El signo de cualquier producto de permutaciones es el producto de los signos de los factores: sgn(τσ) = (sgn τ)(sgn σ) . El signo de las trasposiciones es –1, y el signo de los ciclos de longitud d es (−1)d−1. Demostración: Sean σ, τ ∈ Sn. Aplicando τ a los ı́ndices de las indeterminadas x1, . . . , xn en la igualdad 1.2, obtenemos que ∆(x(τσ)(1), . . . , x(τσ)(n)) = (sgnσ) · ∆(xτ(1), . . . , xτ(n)) = (sgn σ)(sgn τ) · ∆(x1, . . . , xn) . Luego sgn(τσ) = (sgn σ)(sgn τ) = (sgn τ)(sgn σ). 1.4. MATRICES 5 Como el signo de la identidad es 1, se sigue que sgn(τ−1) = (sgn τ)−1. Por otra parte, un cálculo directo demuestra que el signo de la trasposición (12) es –1. Si (ij) es otra trasposición, consideramos una permutación τ tal que τ(1) = i, τ(2) = j, de modo que (ij) = τ · (12) · τ−1, y concluimos que sgn(ij) = sgn(τ) · sgn(12) · sgn(τ−1) = −sgn(τ) · sgn(τ−1) = −sgn(τ · τ−1) = −1. Por último, cuando σ = (a1 . . . ad) es un ciclo de longitud d, se sigue directamente de 1.1 que sgn(σ) = (−1)d−1, porque todas las trasposiciones tienen signo –1. 1.4 Matrices En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K. Dada una matriz A = (aij) de m filas y n columnas (donde el sub́ındice i indica la fila y el sub́ındice j la columna), su matriz traspuesta es At = (aji), que tiene n filas y m columnas. Si B = (bjk) es otra matriz de n filas y r columnas, su producto AB es una matriz m × r cuyo coeficiente cik de la fila i y columna k es cik = ∑n j=1aijbjk = ai1b1k + ai2b2k + . . . + ainbnk . El, producto de matrices es asociativo, aunque no conmutativo, y (AB)t = BtAt . La matriz unidad In es la matriz n × n con todos sus coeficientes nulos, salvo los de la diagonal, que son la unidad. Si A es una matriz m × n, entonces ImA = A y AIn = A. Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz cuadrada B de n columnas tal que AB = In = BA, en cuyo caso tal matriz B es única y se pone B = A−1. Si A y B son matrices invertibles n × n, entonces (AB)−1 = B−1A−1. Determinantes Definición: El determinante de una matriz cuadrada A = (aij) de n filas y columnas es |A| = ∑ σ∈Sn (sgnσ)a1σ(1) . . . anσ(n) y tiene las siguientes propiedades (que se probarán en el curso de Álgebra Lineal II): 1. |A| = |At|. 2. Es lineal en cada columna (y por tanto en cada fila): |A1, . . . , Ai + Bi, . . . , An| = |A1, . . . , Ai, . . . , An| + |A1, . . . , Bi, . . . , An| , |A1, . . . , λAi, . . . , An| = λ|A1, . . . , Ai, . . . , An| . 3. |Aσ(1), . . . , Aσ(n)| = (sgn σ)|A1, . . . , An|. 4. ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ a1 0 . . . 0 0 a2 . . . 0 . . . . . . . . . . . . 0 0 . . . an ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ = a1 . . . an , |I| = 1. 5. |AB| = |A| · |B| , |A−1| = |A|−1. Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y |A1, . . . , Ai, . . . , An| = |A1, . . . , Ai + λAj , . . . , An| , i 6= j . Definición: El adjunto Aij de una matriz A es (−1)i+j por el determinante de la matriz que se obtiene eliminando la fila i y la columna j de la matriz A. 6 CAPÍTULO 1. PRELIMINARES El determinante de A puede calcularse desarrollando por cualquier fila: |A| = ai1Ai1 + . . . + ainAin , o por cualquier columna: |A| = a1jA1j + . . . + anjAnj . Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es A−1 = 1 |A| A11 . . . An1 . . . . . . . . . A1n . . . Ann (Nótese que el coeficiente de la fila i y columna j es el adjunto Aji, no Aij). Por tanto, una matriz cuadrada A es invertible si y sólo si su determinante no es nulo. Definición: El rango (por columnas) de una matriz A es el máximo número de columnas de A linealmente independientes, y se denota rg A. El rango por filas de una matriz A es el rango (por columnas) de su traspuesta At. Los menores de orden r de una matriz A son los determinantes de las matrices formadas con los coeficientes de r filas y r columnas de A (obviamente r no ha de superar el número de columnas ni de filas de A). Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo. Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A coincide con su rango por columnas. Sistemas de Ecuaciones Lineales Regla de Crámer (1704-1752): Si A es una matriz cuadrada invertible, el sistema de ecuaciones lineales AX = B tiene una única solución, que es xi = |A1, . . . , B, . . . , An| |A1, . . . , Ai, . . . , An| donde A1, . . . , An denotan las columnas de la matriz A. Demostración: Si A es invertible, la única solución de AX = B es X = A−1B. Además, si x1, . . . , xn es la solución del sistema, entonces x1A1 + . . . + xnAn = B y por tanto: |A1, . . . , B, . . . , An| = ∑ jxj |A1,. . . , Aj , . . . , An| = xi|A1, . . . , Ai, . . . , An| porque la matriz (A1, . . . , Aj , . . . , An) tiene dos columnas iguales (las columnas i y j) cuando i 6= j. Luego xi = |A1, . . . , B, . . . , An|/|A1, . . . , Ai, . . . , An| es la única solución del sistema. Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones li- neales AX = B es compatible si y sólo si rgA = rg(A|B) . Si un sistema de ecuaciones lineales AX = B es compatible y X0 es una solución par- ticular, AX0 = B, entonces todas las soluciones se obtienen sumándole las soluciones del sistema homogéneo AY = 0; es decir, las soluciones son X = X0 + Y , donde AY = 0. Caṕıtulo 2 Espacios Vectoriales 2.1 Espacios Vectoriales y Subespacios Vectoriales En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K. Definición: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos llamaremos vectores o puntos indistintamente) es asignar a cada par de vectores e1, e2 ∈ E otro vector e1 + e2 ∈ E, y a cada escalar λ ∈ K y cada vector e ∈ E, otro vector λe ∈ E, de modo que: Axioma 1: e1 + (e2 + e3) = (e1 + e2) + e3 para cualesquiera vectores e1, e2, e3 ∈ E. Axioma 2: e1 + e2 = e2 + e1 para cualesquiera vectores e1, e2 ∈ E. Axioma 3: Existe un vector 0 ∈ E tal que e + 0 = e para todo vector e ∈ E. Axioma 4: Para cada vector e ∈ E existe un vector −e tal que e + (−e) = 0. Axioma 5: λ(e1 + e2) = λe1 + λe2 para todo λ ∈ K, e1, e2 ∈ E. Axioma 6: (λ1 + λ2)e = λ1e + λ2e para todo λ1, λ2 ∈ K, e ∈ E. Axioma 7: (λµ)e = λ(µe) para todo λ, µ ∈ K, e ∈ E. Axioma 8: 1 · e = e para todo vector e ∈ E. Dados vectores e, v ∈ E, pondremos v − e = v + (−e), y diremos que −e es el opuesto del vector e. En los espacios vectoriales son válidas las reglas usuales del cálculo vectorial: e + v = e′ + v ⇒ e = e′ e + v = v ⇒ e = 0 e + v = 0 ⇒ v = −e 0 · e = 0 , λ · 0 = 0 λ · (−e) = (−λ)e = −(λe) λ(e − v) = λe − λv λe = 0 ⇒ λ = 0 ó e = 0 Definición: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de E cuando la suma de vectores y el producto por escalares de E definan también en V una estructura de K-espacio vectorial; es decir, cuando 1. v1 + v2 ∈ V , para todo v1, v2 ∈ V . 2. λv ∈ V , para todo λ ∈ K y v ∈ V . 3. 0 ∈ V . 7 8 CAPÍTULO 2. ESPACIOS VECTORIALES Ejemplos: 1. En la Geometŕıa eucĺıdea, los segmentos orientados con origen en un punto prefijado O forman un espacio vectorial real. Éste es el ejemplo paradigmático de espacio vectorial, que motiva los nombres de los conceptos que iremos introduciendo. 2. Kn = K× n. . . ×K = {(λ1, . . . , λn) : λ1, . . . , λn ∈ K} es un K-espacio vectorial. Si A es una matriz m×n con coeficientes en K, las soluciones del sistema de ecuaciones lineales homogéneo AX = 0 forman un subespacio vectorial de Kn. 3. Fijados dos números naturales positivos m y n, la suma de matrices y el producto de matrices por escalares definen una estructura de K-espacio vectorial en el conjunto Mm×n(K) de todas las matrices de m filas y n columnas con coeficientes en K. 4. C es un C-espacio vectorial, y también es un R-espacio vectorial y un Q-espacio vec- torial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque en cada caso los escalares son diferentes. 5. Un espacio vectorial E nunca puede ser el conjunto vaćıo, porque el axioma 3 impone la existencia del vector nulo. El espacio vectorial que tiene un único vector (que necesariamente ha de ser el vector nulo) se denota 0. 6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E. 7. Si e1, . . . , en son vectores de un espacio vectorial E, entonces Ke1 + . . . + Ken = {λ1e1 + . . . + λnen; λ1, . . . , λn ∈ K} es un subespacio vectorial de E que contiene a los vectores e1, . . . , en, y diremos que es el subespacio vectorial de E generado por e1, . . . , en. También se denota 〈e1, . . . , en〉, y si un subespacio vectorial V de E contiene a los vectores e1, . . . , en, entonces Ke1 + . . . + Ken ⊆ V . 8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces su intersección V ∩ W y su suma V + W = {v + w; v ∈ V y w ∈ W} también son subespacios vectoriales de E. 9. Si E y F son dos K-espacios vectoriales, su producto directo E × F es un K-espacio vectorial cuando la suma y el producto por escalares se definen del siguiente modo: (e, f) + (e′, f ′) = (e + e′, f + f ′) , λ(e, f) = (λe, λf) . 10. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal si existe un subespacio vectorial V de E y algún punto p ∈ E tales que X = p + V = {p + v; v ∈ V } . En tal caso diremos que V es la dirección de X, y que X es la subvariedad lineal que pasa por p con dirección V . Diremos que dos subvariedades lineales p + V y q + W son paralelas si sus direcciones V y W son incidentes (V ⊆ W ó W ⊆ V ). 11. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial E define una relación de equivalencia en E (llamada congruencia módulo V ): e ≡ e′ (módulo V ) cuando e′ − e ∈ V ; es decir e′ ∈ e + V . 2.2. TEORÍA DE LA DIMENSIÓN 9 i) e ≡ e para todo vector e ∈ E, porque e − e = 0 ∈ V . ii) Si e ≡ e′, entonces e′ − e ∈ V ; luego e − e′ = −(e′ − e) ∈ V y e′ ≡ e. iii) e ≡ e′, e′ ≡ e′′ ⇒ e′ − e, e′′ − e′ ∈ V ; e′′ − e = (e′′ − e′) + (e′ − e) ∈ V y e ≡ e′′. La clase de equivalencia [p] = p + V de p ∈ E es la subvariedad lineal de dirección V que pasa por p. Por tanto, si una subvariedad lineal X = p + V de dirección V pasa por un punto q, entonces p ≡ q (mód. V ) y por tanto también X = q + V . El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades lineales de E de dirección V , y las siguientes operaciones definen en el conjunto E/V una estructura de K-espacio vectorial (compruébense los 8 axiomas) y diremos que es el espacio vectorial cociente de E por V : [e1] + [e2] = [e1 + e2] λ · [e ] = [λe ] Veamos que estas definiciones no dependen de los vectores elegidos en las clases: Si [e1] = [e ′ 1] y [e2] = [e ′ 2], entonces e ′ 1 − e1, e′2 − e2 ∈ V ; luego e′1 + e′2 − (e1 + e2) ∈ V y por tanto [e1 + e2] = [e ′ 1 + e ′ 2]. Si [e] = [e′], entonces e′−e ∈ V ; luego λe′−λe = λ(e′−e) ∈ V y por tanto [λe] = [λe′]. Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de un vector ē ∈ E/V es [−e], y el vector nulo de E/V es precisamente la clase de 0 ∈ E, de modo que ē = 0 precisamente cuando e ≡ 0 (módulo V ): [e] = 0 ⇔ e ∈ V (2.1) Nota 2.1.1 Si e ∈ Ke1 + . . . + Ken, entonces ē ∈ Kē1 + . . . + Kēn. En efecto, si e = λ1e1 + . . . + λnen, entonces ē = [λ1e1 + . . . + λnen] = λ1ē1 + . . . + λnēn. 2.2 Teoŕıa de la Dimensión Definición: Diremos que unos vectores e1, . . . , en de un espacio vectorial E lo generan, o que forman un sistema de generadores de E cuando todo vector de E es una combinación lineal de e1, . . . , en con coeficientes en K: Ke1 + . . . + Ken = E . Diremos que e1, . . . , en son linealmente dependientes si existen escalares λ1, . . . , λn tales que λ1e1 + . . . + λnen = 0 y algún λi 6= 0, de modo que ei es combinación lineal de los restantes vectores. En caso contrario diremos que son linealmente independientes. Es decir, e1, . . . , en son linealmente independientes cuando la única combinación lineal nula es la que tiene todos los coeficientes nulos: λ1, . . . , λn ∈ K y λ1e1 + . . . + λnen = 0 ⇒ λ1 = . . . = λn = 0 . Diremos que una sucesión de vectores e1, . . . , en de un espacio vectorial E es una base de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada vector e ∈ E se escribe de modo único como combinación lineal con coeficientes en K e = x1e1 + . . . + xnen , 10 CAPÍTULO 2. ESPACIOS VECTORIALES y diremos que (x1, . . . , xn) ∈ Kn son las coordenadas del vector e en la base e1, . . . , en . En efecto, si e = x1e1 + . . . + xnen = y1e1 + . . . + ynen, entonces (x1 − y1)e1 + . . . + (xn− yn)en = x1e1 + . . . + xnen − (y1e1 + . . . + ynen) = e − e = 0 ; luego yi − xi = 0 para todo ı́ndice i, porque e1, . . . , en son linealmente independientes. Ejemplos 2.2.1 1. Sea e un vector no nulo. Como λe = 0 ⇒ λ = 0; tenemos que e es linealmente independiente, y por tanto define una base del subespacio vectorial Ke = 〈e〉. Además, si otro vector v no está en Ke, entonces e, v son linealmente independientes, de modo que forman una base del subespacio vectorial Ke + Kv = 〈e, v〉. 2. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1) forman una base de Kn, llamada base usual de Kn. Las coordenadas de un vector e = (a1, . . . , an) de Kn en esta base son precisamente (a1, . . . , an), porque e = a1e1 + . . . + anen. 3. Las matrices m × n que tienen todos sus coeficientes nulos, excepto uno que es la unidad, definen una base de Mm×n(K), base que está formada por mn matrices. Las coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz. Lema Fundamental: Sean e1, . . . , en vectores de un K-espacio vectorial E. Si tenemos que v1, . . . , vr ∈ Ke1 + . . . + Ken y r > n, entonces los vectores v1, . . . , vr son linealmente dependientes. Demostración: Si vr = 0 es obvio: 0 · v1 + 0 · v2 + . . . + 0 · vr−1 + 1 · vr = 0. Si vr 6= 0, procedemos por inducción sobre n. Si n = 1, entonces v1, vr ∈ Ke1, aśı que v1 = λ1e1, vr = λre1 y λr 6= 0 porque vr 6= 0. Luego v1, . . . , vr son linealmente dependientes: λrv1 − λ1vr = λrλ1e1 − λ1λre1 = 0 . Si n > 1, reordenando los vectores e1, . . . en si es preciso, tendremos vr = ∑n i=1 λiei con λn 6= 0. Despejando, obtenemos que en ∈ Ke1 + . . . + Ken−1 + Kvr, y por tanto v1, . . . , vr−1 ∈ Ke1 + . . . + Ken ⊆ Ke1 + . . . + Ken−1 + Kvr . De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kvr) tendremos que v̄1, . . . , v̄r−1 ∈ Kē1 + . . . + Kēn−1 + Kv̄r = Kē1 + . . . + Kēn−1 , donde r − 1 > n − 1, y por hipótesis de inducción existen escalares λ1, . . . , λr−1, alguno no nulo, tales que 0 = λ1v̄1 + . . . + λr−1v̄r−1 = [λ1v1 + . . . + λr−1vr−1] . Luego ∑r−1 i=1 λivi ∈ Kvr según 2.1, y concluimos que ∑r−1 i=1 λivi = λrvr para algún escalar λr; es decir, los vectores v1, . . . , vr son linealmente dependientes. Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual número de vectores. Demostración: Si e1, . . . , en y v1, . . . , vr son dos bases de un espacio vectorial E, como los vectores e1, . . . , en ∈ E = Kv1 + . . . + Kvr son linealmente independientes, por el lema fundamental tenemos que n ≤ r. Como los vectores v1, . . . , vr ∈ E = Ke1 + . . . + Ken son linealmente independientes, también tenemos que r ≤ n; luego n = r. 2.2. TEORÍA DE LA DIMENSIÓN 11 Definición: Si un espacio vectorial E 6= 0 admite una base, llamaremos dimensión de E al número de vectores de cualquier base de E, y lo denotaremos dimK E; o sencillamente dimE cuando no induzca a confusión. También diremos que el espacio vectorial E = 0 tiene dimensión 0 y que su base es el vaćıo. Diremos que un espacio vectorial E tiene dimensión infinita cuando ninguna familia finita de vectores de E sea una base de E. La dimensión de una subvariedad lineal X = p + V es la de su dirección V . Las subvar- iedades lineales de dimensión 1 y 2 se llaman rectas y planos respectivamente. Ejemplos 2.2.3 1. Según los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K(Ke) = 1; y si además v /∈ Ke, entonces dim K(Ke + Kv) = 2. También, dimKK n = n y dimKMm×n(K) = mn . 2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de C = R + Ri como R-espacio vectorial. 3. Si E es un Q-espacio vectorial de dimensión finita n, cada base e1, . . . , e−n define una biyección Kn → E, (λ1, . . . , λn) 7→ ∑ i λiei, y por tanto el conjunto E es numerable. Como R y C no son numerables, dim QR = dim QC = ∞. 4. El K-espacio vectorial K[x] = {a0 + a1x + a2x2 + . . . ; a0, a1 . . . ∈ K}, formado por todos los polinomios con coeficientes en K en una indeterminada x, con la suma y el producto por escalares usuales, tiene dimensión infinita. En efecto, en el subespacio vectorial Kp1 + . . . + Kpr que generan unos polinomios p1, . . . , pr no está x d cuando el exponente d es mayor que el grado de todos los polinomios p1, . . . , pr. 5. Por dos puntos distintos p y q = p + e pasa una única recta p + Ke, formada por los puntos p + te = tq + (1 − t)p, donde t ∈ K. El punto p + 12e = p+q 2 recibe el nombre de punto medio entre p y q. 6. En un triángulo (la figura formada por tres puntos no alineados abc) las igualdades a + b + c 3 = a 3 + 2 3 b + c 2 = b 3 + 2 3 a + c 2 = c 3 + 2 3 a + b 2 muestran que las tres medianas (rectas que unen un vértice con el punto medio del lado opuesto) se cortan en el punto g = a+b+c3 , llamado baricentro o centro de gravedad, que divide a cada mediana en la proporción 2:1. 7. En un cuadrilátero (la figura formada por cuatro puntos ordenados abcd en los que no hay 3 alineados) las igualdades a + b + c + d 4 = a+b 2 + c+d 2 2 = a+c 2 + b+d 2 2 = b+c 2 + a+d 2 2 prueban que las bimedianas del cuadrilátero (rectas que unen puntos medios de lados opuestos) se bisecan mutuamente, y se bisecan con la recta que une los puntos medios de las diagonales ad y bc. d c ba 8. Consideremos un cuadrilátero abcd y pongamos e = b − a, v = c − a. La condición de que sea un paralelogramo (los lados opuestos son paralelos) es que d − c = λe y d − b = µv para ciertos escalares λ, µ; luego d − a = e + µv = λe + v. 12 CAPÍTULO 2. ESPACIOS VECTORIALES dc ba e v λe µv Como los vectores e, v son linealmente independientes, porque los puntos cab no están alineados, se sigue que λ = µ = 1, de modo que los lados opuestos son iguales, d − c = b − a y d − b = c − a, y las dos diagonales se bisecan mutuamente: a + d 2 = b + c 2 = a + b + c + d 4 . Proposición 2.2.4 Todo sistema finito de generadores {e1, . . . , en} de un espacio vectorial E 6= 0 contiene una base de E, y por tanto n ≥ dimE. Si además n = dim E, entonces los vectores e1, . . . , en ya forman una base de E. Demostración: Para ver que {e1, . . . , en} contiene una base de E procedemos por inducción sobre n. Si n = 1, e1 6= 0 porque Ke1 = E 6= 0; luego e1 es ya una base de E = Ke1. Si n > 1, y los vectores e1, . . . , en son linealmente independientes, forman ya una base de E. Si son linealmente dependientes, tendremos alguna relación ∑n i=1 λiei = 0 con algún coeficiente λi no nulo. Reordenando los vectores e1, . . . , en podemos suponer que λn 6= 0. Despejando en tenemos que en ∈ Ke1 + . . . + Ken−1. Luego E = Ke1 + . . . + Ken−1, y por hipótesis de inducción {e1, . . . , en−1} contiene una base de E. Por último, si n = dim E, entonces los vectores e1, . . . , en ya forman una base de E; porque una base de E no puede tener menos de n vectores según 2.2.2. Lema 2.2.5 Si e1, . . . , em ∈ E son linealmente independientes, y no se pueden ampliar con un vector de E de modo que lo sigan siendo, entonces ya forman una base de E. Demostración: Para todo vector e ∈ E tenemos que e1, . . . , em, e son linealmente dependi- entes: λ1e1 + . . . + λmem + λe = 0 y algún coeficiente no es nulo. Si λ = 0, entonces e1, . . . , er seŕıan linealmente dependientes, en contra de la hipótesis. Luego λ 6= 0 y despejando vemos que e ∈ Ke1 + . . . + Kem. Luego los vectores e1, . . . , em generan E, y como son linealmente independientes por hipótesis, forman una base de E. Proposición 2.2.6 Sea E un espacio vectorial de dimensión finita. Toda familia {e1, . . . , er} de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E, y por tanto r ≤ dimE. Si además r = dimE, entonces los vectores e1, . . . , er ya forman una base de E. Demostración: Añadimos vectores de E hasta obtener una familia linealmente independiente e1, . . . , er, e ′ 1, . . . , e ′ s que ya no pueda ampliarse de modo que losiga siendo (el proceso termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber más de n vectores linealmente independientes, aśı que siempre r + s ≤ n). Ahora e1, . . . , er, e′1, . . . , e′s ya es base de E por el lema anterior. Por último, si r = dim E, entonces s = 0 y los vectores e1, . . . , er ya forman una base de E; porque una base de E no puede tener más de r vectores según 2.2.2. 2.2. TEORÍA DE LA DIMENSIÓN 13 Teorema 2.2.7 Sea V subespacio vectorial de un espacio vectorial de dimensión finita E. 1. dimV ≤ dimE y sólo se da la igualdad cuando V = E. 2. dim (E/V ) = dimE − dimV . Demostración: Veamos primero que la dimensión de V también es finita. Tomemos en V una familia {v1, . . . , vr} linealmente independiente que ya no pueda ampliarse con un vector de V de modo que lo siga siendo (existe porque, si n = dimE, por el lema fundamental en E no puede haber más de n vectores linealmente independientes). Por el lema anterior v1, . . . , vr forman una base de V , de modo que r = dim V . Ahora 2.2.6 permite ampliarla hasta obtener una base v1, . . . , vr, e1, . . . , es de E. Luego dimV = r ≤ r + s = dim E; y si se da la igualdad, entonces s = 0 y v1, . . . , vr ya es base de E, de modo que E = Kv1 + . . . + Kvr = V . En cuanto a la segunda afirmación, basta probar que ē1, . . . , ēs es una base de E/V . Como v1, . . . , vr, e1, . . . , es generan E, y en E/V tenemos que v̄1 = . . . = v̄r = 0, se sigue que E/V = Kē1 + . . . + Kēs. Veamos por último que ē1, . . . , ēs son linealmente independientes: Si 0 = ∑s i=1 λiēi = [ ∑s i=1 λiei], entonces ∑s i=1 λiei ∈ V de acuerdo con 2.1, aśı que λ1e1 + . . . + λsee = µ1v1 + . . . + µrvr para ciertos escalares µ1, . . . , µr. Luego ∑s i=1 λiei − ∑r j=1 µjvj = 0, y como los vectores v1, . . . , vr, e1, . . . , es son linealmente independientes, concluimos que λ1 = . . . = λs = 0. Corolario 2.2.8 Sea e1, . . . , en una base de un espacio vectorial E. Si A es la matriz que tiene por columnas las coordenadas de v1, . . . , vm ∈ E en tal base de E, entonces dim (Kv1 + . . . + Kvm) = rg A . Demostración: Pongamos r = rg A y d = dim (Kv1 + . . . + Kvm). Como {v1, . . . , vm} genera Kv1 + . . . + Kvm, de acuerdo con 2.2.2 contiene una base vi1 , . . . , vid de Kv1 + . . . + Kvm, aśı que las columnas i1, . . . , id de la matriz A son lineal- mente independientes y por tanto d ≤ r (pues unos vectores son linealmente independientes precisamente cuando sus coordenadas son linealmente independientes en Kn). Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r vectores vj1 , . . . , vjr linealmente independientes en Kv1 + . . . + Kvm, y de acuerdo con 2.2.6 concluimos que r ≤ d . Nota: v1, . . . , vm son linealmente independientes ⇔ rg A = m. Por otra parte, de acuerdo con 2.2.7.1 tenemos que Kv1 + . . . + Kvm = E si y sólo si dim (Kv1 + . . . + Kvm) = dimE, aśı que de 2.2.8 se sigue que v1, . . . , vm generan E ⇔ rg A = dim E . Ejemplos: 1. Dados n vectores v1 = (a11, . . . , an1), . . . , vn = (a1n, . . . , ann) en K n, la condición necesaria y suficiente para que formen una base de Kn es que el determinante de la matriz A = (aij) no sea nulo. 2. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimensión. Como dim V = dim W , y además V ⊆ W ó W ⊆ V , 2.2.7.1 afirma que V = W : dos subvariedades lineales paralelas de igual dimensión tienen la misma dirección. 14 CAPÍTULO 2. ESPACIOS VECTORIALES Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones li- neales AX = B es compatible si y sólo si rgA = rg(A|B) . Demostración: Sean A1, . . . , An las columnas de A, de modo que el sistema AX = B puede escribirse x1A1 + . . .+xnAn = B, y la condición de que sea compatible significa que en K m tenemos que B ∈ 〈A1, . . . , An〉; es decir, que 〈A1, . . . , An〉 = 〈A1, . . . , An, B〉. Ahora bien, el teorema 2.2.7.1 afirma que 〈A1, . . . , An〉 = 〈A1, . . . , An, B〉 ⇔ dim〈A1, . . . , An〉 = dim〈A1, . . . , An, B〉 y, de acuerdo con 2.2.8, esta última condición significa que rg A = rg (A|B) . 2.3 Suma Directa Definición: Diremos que la suma V1 + . . . + Vr de unos subespacios vectoriales V1, . . . , Vr de un espacio vectorial E es directa si cada vector e ∈ V1 + . . . + Vr descompone de modo único en la forma e = v1 + . . . + vr, donde vi ∈ Vi; es decir, si la aplicación s : V1 × . . . × Vr −→ V1 + . . . + Vr , s(v1, . . . , vr) = v1 + . . . + vr , (que siempre es epiyectiva, por definición de suma de subespacios vectoriales) también es inyectiva. En tal caso, el subespacio vectorial V1 + . . . + Vr se denota V1 ⊕ . . . ⊕ Vr. Teorema 2.3.1 La condición necesaria y suficiente para que la suma de dos subespacios vectoriales V y W de un espacio vectorial E sea directa es que V ∩ W = 0. Demostración: Si la suma de V y W es directa y e ∈ V ∩ W , entonces 0 = 0 + 0 = e + (−e) , donde 0, e ∈ V y 0,−e ∈ W . La unicidad de la descomposición del vector 0 en suma de un vector de V y otro de W implica que e = 0. Luego V ∩ W = 0. Rećıprocamente, si V ∩ W = 0 y un vector e ∈ V + W admite dos descomposiciones e = v + w = v′ + w′ ; v, v′ ∈ V, w, w′ ∈ W entonces v′ − v = w − w′ ∈ W . Como v′ − v ∈ V , se sigue que v′ − v ∈ V ∩ W = 0. Luego 0 = v′ − v = w − w′, y concluimos que v = v′ y w = w′. Es decir, tal descomposición es única, aśı que la suma de V y W es directa. Definición: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de W en E) cuando E = V ⊕W ; i.e., cuando cada vector de E descompone, y de modo único, en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V ∩ W = 0. Ejemplo: Si e1, . . . , en es una base de un espacio vectorial E, entonces cada vector e ∈ E descompone de modo único como combinación lineal e = λ1e1 + . . . + λnen; luego E = Ke1 ⊕ . . . ⊕ Ken y vemos aśı que un suplementario de V = Ke1 ⊕ . . . ⊕ Ker en E es el subespacio vectorial W = Ker+1 ⊕ . . . ⊕ +Ken. Por tanto, para hallar un suplementario de un subespacio vectorial V de E basta ampliar una base v1, . . . , vr de V hasta obtener una base v1, . . . , vr, w1, . . . , ws de E, porque en tal caso W = Kw1 + . . . + Kws es un suplementario de V en E. Caṕıtulo 3 Aplicaciones Lineales 3.1 Aplicaciones Lineales Definición: Diremos que una aplicación f : E → E′ entre dos K-espacios vectoriales es K-lineal, (o simplemente lineal, si K se sobrentiende) cuando f(e + v) = f(e) + f(v) para todo e, v ∈ E f(λ · e) = λ · f(e) para todo λ ∈ K, e ∈ E Toda aplicación lineal f : E → E′ verifica que f(0) = 0, que f(−e) = −f(e), y también que f(λ1e1 + . . . + λnen) = λ1f(e1) + . . . + λnf(en). En efecto, f(0) = f(0 · 0) = 0 · f(0) = 0, f(−e) = f ( (−1)e ) = (−1)f(e) = −f(e) y f(λ1e1 + . . . + λnen) = f(λ1e1) + . . . + f(λnen) = λ1f(e1) + . . . + λnf(en). Proposición 3.1.1 Si dos aplicaciones f : E → E′ y h : E′ → E′′ son K-lineales, entonces su composición hf : E → E′′, (hf)(e) = h ( f(e) ) , también es K-lineal. Demostración: Para todo λ ∈ K y todo e, v ∈ E tenemos que (hf)(e + v) = h ( f(e + v) ) = h ( f(e) + f(v) ) = h(f(e)) + h(f(v)) = (hf)(e) + (hf)(v) (hf)(λe) = h ( f(λe) ) = h ( λ · f(e) ) = λ · h(f(e)) = λ · (hf)(e) Proposición 3.1.2 Si f : E → E′ es una aplicación lineal, entonces su núcleo Ker f = f−1(0) = {e ∈ E : f(e) = 0} es un subespacio vectorial de E, y su imagen Im f = f(E) = {f(e); e ∈ E} es un subespacio vectorial de E′. Demostración: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 ∈ Ker f porque f(0) = 0. Ahora, si e1, e2 ∈ Ker f , por definición f(e1) = f(e2) = 0, aśı que f(e1 + e2) = f(e1) + f(e2) = 0 f(λe1) = λf(e1) = 0 Luego e1 + e2 ∈ Ker f y λe1 ∈ Ker f , aśı que Ker f es un subespacio vectorial de E. Veamos que Im f es un subespacio vectorial de E′: Tenemos que 0 ∈ Im f porque 0 = f(0). Ahora, si e′1, e′2 ∈ Im f ,por definición existen vectores e1, e2 ∈ E tales que e′1 = f(e1) y e′2 = f(e2), aśı que e′1 + e ′ 2 = f(e1) + f(e2) = f(e1 + e2) ∈ Im f λe′1 = λf(e1) = f(λe1) ∈ Im f y concluimos que Im f es un subespacio vectorial de E′. 15 16 CAPÍTULO 3. APLICACIONES LINEALES Proposición 3.1.3 Una aplicación lineal f : E → E′ es inyectiva si y sólo si Ker f = 0. Demostración: Si f es inyectiva y e ∈ Ker f , entonces f(e) = 0 = f(0); luego e = 0. Rećıprocamente, supongamos que Ker f = 0. Si f(e) = f(v), donde e, v ∈ E, entonces f(v − e) = f(v) − f(e) = 0; luego v − e ∈ Ker f = 0 y por tanto e = v; i.e., f es inyectiva. Ejemplos: 1. Sea V un subespacio vectorial de un espacio vectorial E. La inclusión i : V → E, i(v) = v, es una aplicación lineal inyectiva y su imagen es Im i = V . La proyección canónica π : E → E/V , π(e) = [e], es una aplicación lineal epiyectiva y su núcleo es Ker π = V de acuerdo con 2.1 (v. página 9). 2. Cada matriz A ∈ Mm×n(K) define una aplicación lineal f : Kn → Km, f(X) = AX, cuyo núcleo Ker f está formado por todas las soluciones de la ecuación homogénea AX = 0. Por otra parte, la condición B ∈ Im f significa que el sistema de m ecuaciones lineales con n incógnitas AX = B es compatible. 3. Cada familia {e1, . . . , en} de vectores de un K-espacio vectorial E define una aplicación f : Kn −→ E , f(λ1, . . . , λn) = λ1e1 + . . . + λnen , que siempre es K-lineal. La imagen de esta aplicación lineal es Im f = Ke1+. . .+Ken, aśı que f es epiyectiva cuando e1, . . . , en generan E. Además la condición de que e1, . . . , en sean linealmente independientes significa que Ker f = 0, de modo que en tal caso la aplicación lineal f es inyectiva. Por tanto, cuando e1, . . . , en forman una base de E, esta aplicación lineal f es biyectiva. Matriz de una Aplicación Lineal Definición: Sea f : E → E′ una aplicación lineal entre dos espacios vectoriales de dimensión finita. Si fijamos una base e1, . . . , en de E y una base e ′ 1, . . . , e ′ m de E ′, tendremos que f(ej) = a1je ′ 1 + . . . + amje ′ m , 1 ≤ j ≤ n (3.1) para ciertos escalares aij ∈ K, y diremos que A = (aij) es la matriz de la aplicación lineal f en las bases e1, . . . , en de E y e ′ 1, . . . , e ′ m de E ′. Por definición, la columna j-ésima de la matriz A está formada por las coordenadas del vector f(ej) en la base e ′ 1, . . . , e ′ m de E′. Ahora, para cada vector e = x1e1 + . . . + xnen ∈ E tendremos que su imagen f(e) es f(e) = n ∑ j=1 xjf(ej) = n ∑ j=1 m ∑ i=1 xjaije ′ i = m ∑ i=1 ( n ∑ j=1 aijxj ) e′i . Es decir, si X denota las coordenadas del vector e en la base e1, . . . , en , puestas en colum- na, entonces las coordenadas X ′ de f(e) en la base e′1, . . . , e ′ m se obtienen multiplicando X por la matriz A de f en las bases consideradas: X ′ = AX (3.2) Proposición 3.1.4 Si A es la matriz de una aplicación lineal f : E → E′, entonces dim (Im f) = rg A Demostración: Sea e1, . . . , en una base de E. Como f( ∑ i λiei) = ∑ i λif(ei), la imagen de f está generada por los vectores f(e1), . . . , f(en): Im f = 〈f(e1), . . . , f(en)〉 , y tenemos que dim 〈f(e1), . . . , f(en)〉 = rg A de acuerdo con 2.2.8 y 3.1. 3.2. TEOREMA DE ISOMORFÍA 17 3.2 Teorema de Isomorf́ıa Definición: Diremos que una aplicación K-lineal f : E → E′ es un isomorfismo cuando es biyectiva, y en tal caso la aplicación inversa f−1 : E′ → E también es K-lineal (y por supuesto biyectiva, aśı que f−1 también es un isomorfismo). En efecto, si e′, v′ ∈ E′, entonces e′ = f(e) y v′ = f(v), donde e, v ∈ E, de modo que f−1(e′ + v′) = f−1 ( f(e) + f(v) ) = f−1 ( f(e + v) ) = e + v = f−1(e′) + f−1(v′) f−1(λe′) = f−1 ( λf(e) ) = f−1 ( f(λe) ) = λe = λ · f−1(e′) . Diremos que dos K-espacios vectoriales E y E′ son isomorfos si existe algún isomorfismo K-lineal f : E → E′, en cuyo caso pondremos E ≃ E′. Ejemplos: 1. Si una matriz A ∈ Mn×n(K) es invertible, la aplicación que induce f : Kn → Kn, f(X) = AX, es un isomorfismo, y el isomorfismo inverso f−1 : Kn → Kn es precisa- mente el que define la matriz inversa A−1; es decir, f−1(X) = A−1X. 2. Si V1, . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicación s : V1 × . . . × Vn → V1 + . . . + Vn , s(v1, . . . , vn) = v1 + . . . + vn , es lineal y epiyectiva. Además esta aplicación lineal s es inyectiva precisamente cuando la suma es directa, de modo que en tal caso V1 × . . . × Vn ≃ V1 ⊕ . . . ⊕ Vn. 3. Los isomorfismos transforman vectores linealmente independientes en vectores lineal- mente independientes, y sistemas de generadores en sistemas de generadores (com- pruébese); luego bases en bases. Por tanto, si E ≃ E′, entonces dim E = dim E′. 4. Si e1, . . . , en es una base de un K-espacio vectorial E, entonces la aplicación lineal f : Kn −→ E , f(x1, . . . , xn) = x1e1 + . . . + xnen , es un isomorfismo. El isomorfismo inverso f−1 : E → Kn asigna a cada vector e ∈ E sus coordenadas (x1, . . . , xn) en la base e1, . . . , en . Por tanto, el teorema 2.2.2 muestra que todo espacio vectorial de dimensión n es isomorfo a Kn. Teorema de Isomorf́ıa: Si f : E → E′ es una aplicación lineal, entonces la aplicación lineal φ : E/Ker f → Im f , φ(ē) = f(e), es un isomorfismo: E/Ker f ≃ Im f Demostración: Veamos primero que φ es una aplicación bien definida, que φ(ē) no depende del representante elegido, que si ē = v̄, entonces f(e) = f(v). Ahora bien, si ē = v̄, entonces e ≡ v (módulo Ker f); luego v − e ∈ Ker f , 0 = f(v − e) = f(v) − f(e) y f(e) = f(v). Veamos ahora que tal aplicación φ es lineal: φ(ē + v̄) = φ([e + v]) = f(e + v) = f(e) + f(v) = φ(ē) + φ(v̄) φ(λē) = φ([λe]) = f(λe) = λf(e) = λφ(ē) . φ es inyectiva: Si 0 = φ(ē) = f(e), entonces e ∈ Ker f , luego ē = 0 por 2.1. φ es epiyectiva: Si e′ ∈ Im f , entonces existe e ∈ E tal que e′ = f(e) = φ(ē). 18 CAPÍTULO 3. APLICACIONES LINEALES Corolario 3.2.1 Para toda aplicación lineal f : E → E′ tenemos que dim (Ker f) + dim (Im f) = dimE Demostración: dim (Im f) = dim (E/Ker f) 2.2.7.2 = dimE − dim (Ker f) . Corolario 3.2.2 Si A es la matriz de una aplicación lineal f : E → E′, entonces dim (Ker f) = (no de columnas) − rg A Demostración: dim (Ker f) 3.2.1 = dimE − dim (Im f) 3.1.4= dim E − rg A. Corolario 3.2.3 Las soluciones de un sistema homogéneo AX = 0 de m ecuaciones lineales con n incógnitas y coeficientes en K forman un subespacio vectorial de Kn de dimensión n − rg A; y las soluciones de un sistema no homogéneo compatible AX = B forman una subvariedad lineal de Kn de dirección AX = 0 y dimensión n − rg A. Demostración: Sea V = {X ∈ Kn : AX = 0} el conjunto de soluciones del sistema ho- mogéneo AX = 0. La matriz A ∈ Mm×n(K) define una aplicación lineal f : Kn → Km, f(X) = AX, y V es precisamente el núcleo de f . La matriz de f en las bases usuales de Kn y Km (ver 2.2.1) es A, aśı que 3.2.2 afirma que la dimensión de V es n − rg A. Por último, si un sistema AX = B es compatible, las soluciones se obtienen sumando a una solución particular X0 las soluciones de la ecuación homogénea AX = 0; luego forman la subvariedad lineal X0 + V y, por tanto, su dimensión también es n − rg A. Definición: Fijada una base de un espacio vectorial de dimensión finita E, dar ecuaciones paramétricas de un subespacio vectorial V de E es dar las coordenadas de una base de V , y dar ecuaciones impĺıcitas de V es dar un sistema homogéneo de ecuaciones lineales independientes cuyas soluciones sean las coordenadas de los vectores de V . Dar ecuaciones paramétricas de una subvariedad lineal X de E es dar las coordenadas de un punto de X y de una base de la dirección de X, y dar ecuaciones impĺıcitas de X es dar un sistema de ecuaciones lineales independientes cuyas soluciones sean las coordenadas de los puntos de X. Ejemplo: Fijada una base (e1, e2, e3, e4) de un espacio vectorial E de dimensión 4, consi- deremos la subvariedad lineal X de ecuaciones paramétricas x1 = λ1 + 4λ2 +2 x2 = 2λ1 + 3λ2 + 1 x3 = 3λ1 + 2λ2 + 1 x4 = 4λ1 + λ2 + 3 , x1 x2 x3 x4 = 2 1 1 3 + λ1 1 2 3 4 + λ2 4 3 2 1 cuya dirección V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de modo que dimV = 2. Hallemos primero ecuaciones impĺıcitas de la dirección V . Las coordenadas de los vectores de V son soluciones de una ecuación lineal homogénea u1x1 + u2x2 + u3x3 + u4x4 = 0 cuando u1 + 2u2 + 3u3 + 4u4 = 0 4u1 + 3u2 + 2u3 + u4 = 0 } , u1 = −(2/3)α − (1/3)β u2 = α u3 = β u4 = −(1/3)α − (2/3)β 3.3. CAMBIO DE BASE 19 y dando los valores α = −3, β = 0 y α = 0, β = −3 obtenemos un sistema de ecuaciones 2x1 − 3x2 + x4 = 0 x1 − 3x3 + 2x4 = 0 } (3.3) cuyas soluciones forman un subespacio vectorial de K4 que contiene a las coordenadas de los vectores de V . Como ambos subespacios vectoriales tienen dimensión 2, coinciden, de modo que unas ecuaciones impĺıcitas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal X pasa por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones impĺıcitas de X son 2x1 − 3x2 + x4 = 4 x1 − 3x3 + 2x4 = 5 } Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di- mensión finita E, entonces dim (V + W ) = dimV + dimW − dim (V ∩ W ) Demostración: Consideremos la aplicación lineal f : V → (V + W )/W , f(v) = [v], que es epiyectiva, pues para toda clase [v + w] ∈ (V + W )/W tenemos que [v + w] = [v] + [w] = [v] + 0 = f(v) , y su núcleo es Ker f = {v ∈ V : [v] = 0} = V ∩ W . Terminamos por 2.2.7 y 3.2.1: dimV = dim (V ∩ W ) + dim (V + W )/W = dim (V ∩ W ) + dim (V + W ) − dimW . Corolario 3.2.5 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimen- sión finita E. Si la suma de V y W es directa, entonces dim (V ⊕ W ) = dimV + dimW Demostración: De acuerdo con 2.3.1 tenemos que V ∩ W = 0, aśı que dim (V + W ) = dim V + dimW − dim (V ∩ W ) = dimV + dim W . Corolario 3.2.6 Si E y F son dos K-espacios vectoriales de dimensión finita, dim (E × F ) = dim E + dim F . Demostración: La aplicación lineal p : E × F → E, p(e, v) = e, es epiyectiva, y su núcleo 0 × F es claramente isomorfo a F ; luego dim (E × F ) = dim E + dim (0 × F ) = dimE + dimF . 3.3 Cambio de Base Definición: Sea e1, . . . , en una base de un espacio vectorial E. Si consideramos una nueva base v1, . . . , vn de E, tendremos escalares bij ∈ K tales que vj = b1je1 + . . . + bnjen , 1 ≤ j ≤ n (3.4) y diremos que B = (bij) ∈ Mn×n(K) es la matriz de cambio de base. Las columnas de la matriz de cambio de base B están formadas por las coordenadas de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad Id: E → E cuando en el espacio de salida se considera la nueva base v1, . . . , vn y en el de llegada la base antigua e1, . . . , en . Por tanto, de acuerdo con 3.2, si X̄ son las coordenadas de un vector e ∈ E en la nueva base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BX̄. 20 CAPÍTULO 3. APLICACIONES LINEALES Por otra parte, también tenemos una matriz de cambio de base C ∈ Mn×n(K) cuando se considera que v1, . . . , vn es la base inicial de E y que e1, . . . , en es la nueva base, de modo que X̄ = CX. Luego X = BCX y X̄ = CBX̄, y como estas igualdades son válidas para cualesquiera columnas X, X̄, se concluye que BC = CB = I. Es decir, la matriz B es invertible, y su inversa es la matriz C. En resumen, la relación entre las coordenadas X y X̄ de un mismo vector e ∈ E en las bases e1, . . . , en y v1, . . . , vn respectivamente es X = BX̄ , X̄ = B−1X (3.5) Aplicaciones Lineales Sea f : E → E′ una aplicación lineal y sea A ∈ Mm×n(K) la matriz de f en ciertas bases e1, . . . , en y e ′ 1, . . . , e ′ m de E y E ′ respectivamente. Consideremos nuevas bases v1, . . . , vn y v ′ 1, . . . , v ′ m de E y E ′ respectivamente, las correspondientes matrices de cambio de base B ∈ Mn×n(K) y C ∈ Mm×m(K), y sea Ā ∈ Mm×n(K) la matriz de f en estas nuevas bases de E y E′. Vamos a determinar la nueva matriz Ā de f en términos de la matriz A y las matrices de cambio de base B y C Sean X y X̄ las coordenadas de un vector e ∈ E en las bases e1, . . . , en y v1, . . . , vn respectivamente, y sean X ′ e X̄ ′ las coordenadas de f(e) ∈ E′ en las bases e′1, . . . , e′m y v′1, . . . , v ′ m respectivamente. De acuerdo con 3.2 tendremos que X ′ = AX , X̄ ′ = ĀX̄ y de acuerdo con 3.5 tendremos que X̄ = B−1X , X ′ = CX̄ ′ ; luego AX = X ′ = CX̄ ′ = CĀX̄ = CĀB−1X . Como esta igualdad es válida para cualquier columna X, concluimos que A = CĀB−1 , Ā = C−1AB (3.6) 3.4 El Espacio Vectorial HomK(E, E ′) Sean E y E′ dos K-espacios vectoriales. Si f, h : E → E′ son dos aplicaciones lineales y λ ∈ K, entonces también son lineales las aplicaciones f + h : E −→ E′ , (f + h)(e) = f(e) + h(e) λf : E −→ E′ , (λf)(e) = λ · f(e) Esta suma de aplicaciones lineales y este producto por escalares definen una estructura de K-espacio vectorial en el conjunto HomK(E, E ′) de todas las aplicaciones lineales1 de E en E′. (Compruébense los 8 axiomas de espacio vectorial). El vector nulo de este espacio vectorial es la aplicación lineal 0 : E → E′, que transforma todo vector e ∈ E en el vector nulo de E′; y el opuesto de una aplicación lineal f : E → E′ es la aplicación lineal −f : E → E′, (−f)(e) = −f(e). 1También llamadas en algunos libros homomorfismos o morfismos de E en E′. Caṕıtulo 4 Geometŕıa Eucĺıdea 4.1 Producto Escalar Definición: Dar un producto escalar en un espacio vectorial real E es asignar a cada par de vectores e, v ∈ E un número real, que denotaremos e · v (ó < e | v >), de modo que se verifiquen las siguientes condiciones: 1. Bilineal : (e + e′) · v = e · v + e′ · v , (λe) · v = λ(e · v), e · (v + v′) = e · v + e · v′ , e · (λv) = λ(e · v). 2. Simétrico: e · v = v · e. 3. Definido-positivo: e · e ≥ 0 , y sólo se da la igualdad cuando e = 0. Fijado un producto escalar en un espacio vectorial real E, se llama módulo de un vector e ∈ E al número real +√e · e (que es positivo cuando e 6= 0) y se denota |e|, ó ‖e‖. Nótese que ‖λe‖ = √ λ2e · e = |λ| · ‖e‖. La distancia entre dos puntos p, q ∈ E es el módulo de su diferencia: d(p, q) = ‖q − p‖. Ejemplos: 1. En la geometŕıa eucĺıdea, los vectores con origen en un punto prefijado O forman un espacio vectorial real de dimensión 3. Fijada una unidad de longitud, el módulo de un vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es el producto de sus módulos por el coseno del ángulo que forman. Éste es el ejemplo paradigmático de producto escalar, que motiva los nombres que introduciremos. 2. El producto escalar usual en Rn es (x1, . . . , xn) · (y1, . . . , yn) = n ∑ i=1 xiyi = x1y1 + . . . + xnyn . 3. Un producto escalar en C es < z1 | z2 > = z1z̄2 + z̄1z2. 4. Un producto escalar en Mn×n(R) es < A |B > = trAtB. Es definido-positivo porque, si A = (aij), entonces < A |A > = ∑ ij a 2 ij . 5. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado [a, b], un producto escalar es < f | g > = ∫ b a f(t)g(t) dt 21 22 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA Lema 4.1.1 Para todo par de vectores e, v ∈ E se tiene la desigualdad de Cauchy-Schwarz |e · v| ≤ ‖e‖ · ‖v‖ ; y por tanto la desigualdad triangular: ‖e + v‖ ≤ ‖e‖ + ‖v‖ . Demostración: El polinomio p(t) = (te + v) · (te + v) = (e · e)t2 + 2(e · v)t + v · v es de grado 2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores negativos, porque el producto escalar es definido-positivo, aśı que no puede tener dos ráıces reales distintas (es decir, su discriminante no puede ser positivo): 4(e · v)2 − 4(e · e)(v · v) ≤ 0 ; luego (e · v)2 ≤ (e · e)(v · v), y tomando ráız cuadrada vemos que |e · v| ≤ ‖e‖ · ‖v‖. En cuanto a la desigualdad triangular, como |e · v| ≤ ‖e‖ ·‖v‖, tenemos que ‖e + v‖2 = (e + v) · (e + v) = e · e + v · v + 2(e · v) ≤ e · e + v · v + 2|e · v| ≤ ≤ ‖e‖2 + ‖v‖2 + 2‖e‖ · ‖v‖ = (‖e‖ + ‖v‖)2 y tomando ráız cuadrada se concluye que ‖e + v‖ ≤ ‖e‖ + ‖v‖. Definición: Si e, v 6= 0, de acuerdo con el lema anterior, tenemos que −1 ≤ e·v‖e‖·‖v‖ ≤ 1, y diremos que el coseno del ángulo α que forman dos vectores no nulos e y v es cos α = e · v ‖e‖ · ‖v‖ (de modo que el ángulo α que forman e y v está bien definido salvo un signo). El ángulo que forman 3 puntos distintos abc es el ángulo que forman los vectores a − b y c − b. Diremos que dos vectores e, v ∈ E son ortogonales cuando e · v = 0; es decir, cuando cos α = 0. Cuando λµ > 0, el ángulo que forman e y v coincide con el que forman λe y µv, porque (λe) · (µv) ‖λe‖ · ‖µv‖ = λµ(e · v) |λµ| · ‖e‖ · ‖v‖ = e · v ‖e‖ · ‖v‖ · Ejemplos: 1. Si en un triángulo abc consideramos los vectores e = b − a y v = c − a, de modo que c − b = v − e, de la igualdad ‖v − e‖2 = (v − e) · (v − e) = ‖v‖2 + ‖e‖2 − 2(e · v) se sigue tanto el Teorema de Pitágoras (s. VI a. de C.) como su rećıproco: a b c e v v − e α e · v = 0 ⇔ ‖v − e‖2 = ‖e‖2 + ‖v‖2 α = π/2 ⇔ ‖c − a‖2 = ‖b − a‖2 + ‖c − b‖2 2. Vamos a demostrar el Teorema de Tales (s. VI a. de C.): Si en un triángulo se traza una recta paralela a un lado, corta a los otros dos lados en segmentos proporcionales. Como los vectores e y v son linealmente independientes, v eαe βv βv − αe = λ(v − e), α = λ = β ‖βv‖ ‖αe‖ = ‖v‖ ‖e‖ = ‖v − βv‖ ‖e − αe‖ ‖βv‖ ‖v‖ = ‖αe‖ ‖e‖ = ‖βv − αe‖ ‖v − e‖ 4.2. ESPACIOS VECTORIALES EUCLÍDEOS 23 3. Si h es el punto de corte de las alturas (rectas que pasan por un vértice y son per- pendiculares al lado opuesto) trazadas por los vértices c y a, tendremos que (b − a) · (h − c) = 0 (4.1) (c − b) · (h − a) = 0 (4.2) y sumando obtenemos que (c − a) · (h − b) = 0, de modo que la altura trazada por el tercer vértice b pasa también por h: Las tres alturas de un triángulo se cortan en un punto h, llamado ortocentro. 4. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por el punto medio) de los lados ab y bc, tendremos que 0 = 2(b − a) · (f − a+b2 ) = (b − a) · 2f + a · a − b · b (4.3) 0 = 2(c − b) · (f − b+c2 ) = (c − b) · 2f + b · b − c · c (4.4) y sumando obtenemos que 0 = (c− a) · 2f + a · a− c · c = 2(c− a) · (f − a+c2 ), de modo que la mediatriz del lado ab también pasa por f : las tres mediatrices se cortan en un punto f , llamado circuncentro. 5. Sumando ahora 4.1 con 4.3, y 4.2 con 4.4, y recordando que el baricentro es g = a+b+c3 , obtenemos también que (b − a) · (h + 2f − 3g) = 0 (c − b) · (h + 2f − 3g) = 0 Como los vectores b−a, c− b son linealmente independientes, porque los puntos a, b, c no están alineados, se sigue que h + 2f − 3g = 0; es decir, g = h 3 + 2f 3 = h + 2 3 (f − h) de modo que el baricentro está en el segmento que determinan el ortocentro y el circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por estos tres puntos recibe el nombre de recta de Euler (1707-1783). 4.2 Espacios Vectoriales Eucĺıdeos Definición: Llamaremos espacio vectorial eucĺıdeo, en honor de Euclides (325?-265? a. de C.), a todo espacio vectorial real E de dimensión finita dotado de un producto escalar, y diremos que el ortogonal de un subespacio vectorial V de E es: V ⊥ = {e ∈ E : e · v = 0 para todo vector v ∈ V } . Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucĺıdeo E, su ortogonal es un subespacio vectorial de E de dimensión: dimV ⊥ = dim E − dimV 24 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA Demostración: Sea v1, . . . , vd una base de V . El núcleo de la aplicación lineal f : E −→ Rd , f(e) = (e · v1, . . . , e · vd) , es Ker f = {e ∈ E : e · v1 = 0, . . . , e · vd = 0} = (Rv1 + . . . + Rvd)⊥ = V ⊥ , porque si un vector e ∈ E es ortogonal a ciertos vectores, e · v1 = . . . = e · vd = 0, entonces también es ortogonal a todas sus combinaciones lineales, e · (λ1v1 + . . . + λdvd) = λ1(e · v1) + . . . + λr(e · vd) = 0 , de modo que e ∈ (Rv1 + . . . + Rvd)⊥. Luego V ⊥ es un subespacio vectorial y dimE 3.2.1 = dim (Ker f) + dim (Im f) = dim V ⊥ + dim (Im f) . Además, la imagen de f es un subespacio vectorial de Rd, aśı que dimE ≤ dimV ⊥ + dim (Rd) = dim V ⊥ + d = dim V ⊥ + dimV . (4.5) Por otra parte, si v ∈ V ⊥∩V , entonces v · v = 0; luego v = 0, porque el producto escalar es definido-positivo, y V ⊥ ∩ V = 0 . Por tanto dimV ⊥ + dimV 3.2.4 = dim (V ⊥ + V ) ≤ dimE (4.6) y comparando con 4.5 concluimos que dimV ⊥ + dim V = dim E. Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucĺıdeo E, tenemos que E = V ⊥ ⊕ V y que (V ⊥)⊥ = V . Demostración: Como V ⊥∩V = 0, la suma de V y V ⊥ es directa por 2.3.1 y, de acuerdo con 3.2.5, su dimensión es dim (V ⊥ ⊕ V ) = dim V ⊥ + dimV = dim E, aśı que 2.2.7.1 permite concluir que V ⊥ ⊕ V = E. Por otra parte, V ⊆ (V ⊥)⊥ por definición de V ⊥, y de acuerdo con 4.2.2 dim (V ⊥)⊥ = dim E − dim (V ⊥) = dimE − (dim E − dimV ) = dimV , aśı que de nuevo 2.2.7.1 permite concluir que (V ⊥)⊥ = V . Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucĺıdeo E: 1. V ⊆ W ⇔ W⊥ ⊆ V ⊥ 2. V = W ⇔ V ⊥ = W⊥ 3. (V + W )⊥ = V ⊥ ∩ W⊥ 4. (V ∩ W )⊥ = V ⊥ + W⊥ Demostración: Si V ⊆ W , es claro que W⊥ ⊆ V ⊥ . Rećıprocamente, si W⊥ ⊆ V ⊥, entonces (V ⊥)⊥ ⊆ (W⊥)⊥; luego V ⊆ W de acuerdo con 4.2.2. 2.– Si V ⊥ = W⊥, entonces (V ⊥)⊥ = (W⊥)⊥; luego V = W de acuerdo con 4.2.2. 3.– Como V ⊆ V +W y W ⊆ V +W , tenemos que (V +W )⊥ ⊆ V ⊥ y (V +W )⊥ ⊆ W⊥; luego (V + W )⊥ ⊆ V ⊥ ∩ W⊥. Además, si e ∈ V ⊥ ∩ W⊥, para todo vector v + w ∈ V + W tendremos que e · (v + w) = e · v + e · w = 0 . Luego V ⊥ ∩ W⊥ ⊆ (V + W )⊥ y concluimos que (V + W )⊥ = V ⊥ ∩ W⊥. 4.– De acuerdo con el segundo apartado, para demostrar que (V ∩ W )⊥ = V ⊥ + W⊥ basta ver que sus ortogonales coinciden: ( V ⊥ + W⊥ )⊥ 3 = (V ⊥)⊥ ∩ (W⊥)⊥ 4.2.2= V ∩ W 4.2.2= ( (V ∩ W )⊥ )⊥ . 4.3. BASES ORTONORMALES 25 Ejemplos: 1. Se llama distancia de un punto p a una subvariedad lineal X al ı́nfimo de las distancias de p a los puntos de X: d(p,X) = inf x∈X d(p, x) . Existe un único punto q ∈ X tal que p − q es ortogonal a la dirección de X. Además, la distancia de p a X se alcanza en tal punto: d(p, q) = d(p,X). En efecto, si X = x+V , según 4.2.2 tendremos p−x = v +w donde v ∈ V y w ∈ V ⊥, y esta descomposición es única. Es decir, q = x + v es el único punto de X tal que p − q ∈ V ⊥. Además, para cualquier otro punto x′ ∈ X, por el teorema de Pitágoras tendremos d(p, x′)2 = d(p, q)2 + d(q, x′)2, aśı que d(p, q) < d(p, x′) cuando x′ 6= q. 2. Si V es un subespacio vectorial de un espacio vectorial eucĺıdeo E, de acuerdo con 4.2.2 tenemos que E = V ⊥ ⊕ V . La aplicación lineal sV : E → E que es la identidad en V y transforma cada vector de V ⊥ en su opuesto se llama simetŕıa respecto de V , y la aplicación lineal pV : E → V que es la identidad en V y se anula en todos los vectores de V ⊥ se llama proyección ortogonal sobre V . Es decir, cada vector e ∈ E descompone de modo único en suma, e = v + w, de un vector v ∈ V y otro w ∈ V ⊥, y por definición sV (e) = v − w , pV (v + w) = v . 3. Se dice que dos subvariedades lineales X = p + V , Y = q + W de un espacio vectorial eucĺıdeo E son perpendiculares cuando V y W⊥ son incidentes (i.e., cuando V ⊆ W⊥ ó W⊥ ⊆ V ), lo que, en virtud de 4.2.3, equivale a que W y V ⊥ sean incidentes. Cuando V ⊆ W⊥, tenemos que V ∩ W ⊆ W⊥ ∩ W = 0; luego V ∩ W = 0. Cuando W⊥ ⊆ V , tenemos que E = W⊥ + W ⊆ V + W ; luego V + W = E. 4.3 Bases Ortonormales Definición: Diremos que una base e1, . . . , en de un espacio vectorial eucĺıdeo E es orto- normal cuando todos los vectores de la base son de módulo 1 y mutuamente ortogonales: ei · ej = { 1 cuando i = j 0 cuando i 6= j Por definición, en una base ortonormal el producto escalar de dos vectores e, v ∈ E es e · v = (x1e1 + . . . + xnen) · (y1e1 + . . .+ ynen) = x1y1 + . . . + xnyn . Teorema 4.3.1 Todo espacio vectorial eucĺıdeo E 6= 0 admite bases ortonormales. Demostración: Procedemos por inducción sobre n = dim E. Cuando n = 1, tenemos que E = Rv. Si tomamos e = v/‖v‖, entonces e · e = 1 y e ya es una base ortonormal de E. Si n > 1, tomamos un vector no nulo v ∈ E y ponemos en = v/‖v‖, de modo que en · en = 1. De acuerdo con 4.2.1, dim (Ren)⊥ = n − 1, aśı que por hipótesis de inducción existe alguna base ortonormal e1, . . . , en−1 de (Ren) ⊥. Ahora los vectores e1, . . . , en son de módulo 1 y mutuamente ortogonales, aśı que basta ver que e1, . . . , en forman una base de E. Como el número de vectores coincide con la dimensión de E, de acuerdo con 2.2.2 es suficiente probar que e1, . . . , en generan E. Ahora bien, Re1 + . . . + Ren−1 + Ren = (Ren) ⊥ + Ren 4.2.2 = E . 26 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA Caṕıtulo 5 Endomorfismos 5.1 Polinomios En este caṕıtulo, de nuevo los escalares serán K = Q, R ó C. Regla de Ruffini (1765-1822): Sea p(x) un polinomio con coeficientes en K. Si α ∈ K es una ráız de p(x), entonces p(x) es múltiplo de x − α: p(x) = (x − α)q(x) . Demostración: Dividiendo p(x) por x − α tendremos que p(x) = (x − α)q(x) + r, y sustitu- yendo x = α en esta igualdad obtenemos que 0 = p(α) = (α − α)q(α) + r = r , y concluimos p(x) = (x − α)q(x). Definición: Si α ∈ K es una ráız de un polinomio no nulo p(x) con coeficientes en K, llamaremos multiplicidad de tal ráız al mayor número natural m tal que (x − α)m divida a p(x); es decir, p(x) = (x − α)mq(x) donde q(x) ya no admite la ráız α, de acuerdo con la Regla de Ruffini. Las ráıces de multiplicidad 1 se denominan simples. Consideremos un polinomio p(x) 6= 0 con coeficientes en K. Si admite una ráız α1 ∈ K, tendremos p(x) = (x − α1)m1q1(x), donde el polinomio q1(x) también tiene coeficientes en K y ya no admite la ráız α1. Ahora, si p(x) admite otra ráız α2 ∈ K, ha de ser una ráız de q1(x), de modo que p(x) = (x−α1)m1(x−α2)m2q2(x). Procediendo de este modo obtenemos una descomposición p(x) = (x − α1)m1(x − α2)m2 . . . (x − αr)mrq(x) , (5.1) donde α1, . . . , αr son todas las ráıces de p(x) en K, los exponentes m1, . . . , mr son sus respectivas multiplicidades, y el polinomio q(x) carece de ráıces en K. Esta descomposición muestra que el número de ráıces en K de un polinomio no nulo p(x), cada una contada con su multiplicidad, está acotado por el grado del polinomio, y diremos que p(x) tiene todas sus ráıces en K cuando se dé la igualdad; i.e., cuando en 5.1 el polinomio q(x) sea constante. Teorema de D’Alembert (1717-1783): Todo polinomio no constante con coeficientes com- plejos admite alguna ráız compleja. La demostración de este teorema fundamental se dará en cursos posteriores. De acuerdo con este teorema, en el caso de polinomios con coeficientes complejos, en la descomposición 5.1 el factor q(x) ha de ser constante: El número de ráıces complejas de un polinomio no constante, contadas con su multiplicidad, siempre es el grado del polinomio. 27 28 CAPÍTULO 5. ENDOMORFISMOS 5.2 Valores y Vectores Propios Definición: Llamaremos endomorfismos de un K-espacio vectorial E a las aplicaciones K-lineales T : E → E. Si S, T : E → E son dos endomorfismos, su producto ST es la composición S ◦ T , que también es un endomorfismo de E. Fijada una base e1, . . . , en de E, cada endomorfismo T : E → E está determinado por su matriz A = (aij) ∈ Mn×n(K) en tal base: T (ej) = n ∑ i=1 aijei , j = 1, . . . , n . Si se considera una nueva base en E, y B es la matriz del cambio de base, según 3.6 la matriz Ā de T en la nueva base es Ā = B−1AB . (5.2) Definición: Dado un endomorfismo T de un K-espacio vectorial de dimensión finita E, diremos que un escalar α ∈ K es un valor propio de T si existe algún vector no nulo e ∈ E tal que T (e) = αe, en cuyo caso diremos que e es un vector propio de T y pondremos Vα = Ker (αId − T ) = {e ∈ E : T (e) = αe} de modo que Vα es un subespacio vectorial de E, y Vα 6= 0. Definición: Sea T un endomorfismo de un espacio vectorial E de dimensión finita n. Si A es la matriz de T en alguna base de E, diremos que el polinomio cT (x) = ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ x − a11 −a12 . . . −a1n −a21 x − a22 . . . −a2n . . . . . . . . . . . . −an1 −an2 . . . x − ann ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ = xn − ( n ∑ i=1 aii ) xn−1 + . . . + (−1)n|A| es el polinomio caracteŕıstico de T , pues no depende de la base elegida, sino sólo de T . En efecto, si Ā es la matriz de T en otra base de E, entonces Ā = B−1AB y |xI − Ā| = |xB−1IB − B−1AB| = |B−1(xI − A)B| = = |B−1| · |xI − A| · |B| = |B|−1|B| · |xI − A| = |xI − A| . Teorema 5.2.1 Sea T un endomorfismo de un K-espacio vectorial de dimensión finita E. Los valores propios de T son las ráıces en K de su polinomio caracteŕıstico cT (x). Demostración: Sea n = dim E. Por definición, α ∈ K es un valor propio de T precisamente cuando 0 6= Ker (αId − T ); es decir, si y sólo si 0 6= dim ( Ker (αId − T ) ) 3.2.2 = n − rg (αI − A) ; lo que significa que rg (αI − A) < n, y ocurre justamente cuando cT (α) = |αI − A| = 0. Corolario 5.2.2 El número de valores propios de un endomorfismo T de un espacio vecto- rial E de dimensión n siempre es menor o igual que n. Demostración: El grado del polinomio caracteŕıstico cT (x) es n = dim E, y el número de ráıces en K de un polinomio siempre está acotado por el grado del polinomio. Corolario 5.2.3 Todo endomorfismo de un espacio vectorial complejo de dimensión finita tiene algún valor propio. Demostración: Es consecuencia directa de 5.2.1 y del Teorema de D’Alembert. 5.3. DIAGONALIZACIÓN DE ENDOMORFISMOS 29 Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracteŕıstico c(x) = xn + . . . + c1x + c0 de un endomorfismo T de un K-espacio vectorial de dimen- sión finita E siempre anula al endomorfismo: c(T ) = Tn + . . . + c1T + c0Id = 0 . Demostración: Si A ∈ Mn×n(K) es la matriz de T en una base de E, la matriz del endo- morfismo c(T ) es c(A) = An + . . . + c1A + c0I = 0, aśı que el teorema afirma que c(A) = 0, donde c(x) = |xI − A|; luego basta probarlo en el caso K = C. En tal caso procedemos por inducción sobre n = dim E. Si n = 1, entonces A = (a) para algún escalar a ∈ C. Luego c(x) = x − a y c(A) = A − aI = 0. Si n > 1, de acuerdo con 5.2.3, el endomorfismo T tiene algún valor propio α ∈ C. Consideremos un vector propio e1 ∈ E de valor propio α, y una base e1, . . . , en en E. La matriz A de T en esta base es de la forma A = ( α . . . 0 Ā ) para cierta matriz cuadrada Ā de n − 1 columnas. Luego c(x) = (x − α)c̄(x), donde c̄(x) = |xI − Ā| y, por hipótesis de inducción, c̄(Ā) = 0. Ahora Ar = ( αr . . . 0 Ār ) c(A) = (A − αI)c̄(A) = ( 0 . . . 0 B )( c̄(α) . . . 0 c̄(Ā) ) = ( 0 . . . 0 B )( c̄(α) . . . 0 0 ) = 0 . 5.3 Diagonalización de Endomorfismos Definición: Diremos que un endomorfismo T de un K-espacio vectorial de dimensión finita E es diagonalizable si existe alguna base e1, . . . , ed de E formada por vectores propios de T ; i.e., T (ej) = αjej para ciertos escalares αj ∈ K, lo que significa que la matriz de T en tal base es diagonal (todos sus coeficientes son nulos, salvo quizás los de la diagonal): D = α1 0 . . . 0 0 α2 . . . 0 . . . . . . . . . . . . 0 0 . . . αd De acuerdo con 5.2, un endomorfismo T de matriz A es diagonalizable si existe alguna matriz invertible B tal que D = B−1AB es una matriz diagonal D. En tal caso A = BDB−1, y es sencillo calcular las potencias An (y por tanto, la solución general Xn = A nX0 del sistema de ecuaciones en diferencias finitas Xn+1 = AXn), porque An = (BDB−1)(BDB−1) . . . (BDB−1) = BDnB−1 . Igualmente, la solución general del sistema de ecuaciones diferenciales X ′ = AX es X = BX̄, donde X̄ es la solución general del sistema X̄ ′ = DX̄. En efecto: X ′ = BX̄ ′ = BDX̄ = BDB−1X = AX . Ahora, para resolver el sistema X̄ ′ = DX̄, basta observarque la solución general de la ecuación diferencial x̄′i = αix̄i es x̄i(t) = c e αit . 30 CAPÍTULO 5. ENDOMORFISMOS Ejemplos: 1. Para resolver la ecuación diferencial x′′ = ax′ + bx, a, b ∈ R, planteamos el siguiente sistema de ecuaciones diferenciales con una nueva función incógnita y(t): { x′ = y y′ = ay + bx , ( x y )′ = ( 0 1 b a )( x y ) , A = ( 0 1 b a ) El polinomio caracteŕıstico del endomorfismo A : R2 → R2 es c(u) = |uI − A| = ∣ ∣ ∣ ∣ u −1 −b u − a ∣ ∣ ∣ ∣ = u2 − au − b . Si el polinomio caracteŕıstico u2−au−b tiene dos ráıces reales y distintas (a2+4b > 0) α1 , α2 = a ± √ a2 + 4b 2 éstas son los valores propios de tal endomorfismo. Para hallar vectores propios se han de resolver los sistemas de ecuaciones lineales homogéneos ( α1 −1 −b α1 − a )( x1 x2 ) = ( 0 0 ) , ( α2 −1 −b α2 − a )( x1 x2 ) = ( 0 0 ) α1x1 − x2 = 0 , α2x1 − x2 = 0 Los vectores propios e1 = (1, α1) y e2 = (1, α2) forman una base de R 2,y nos permiten diagonalizar la matriz A: D = ( α1 0 0 α2 ) = B−1AB , B = ( 1 1 α1 α2 ) Ahora resolvemos el sistema de ecuaciones diferenciales X̄ ′ = DX̄: ( x̄ ȳ )′ = ( α1 0 0 α2 )( x̄ ȳ ) , { x̄′ = α1x̄ ȳ′ = α2ȳ , { x̄ = c1e α1t ȳ = c2e α2t y la solución general del sistema de ecuaciones diferenciales X ′ = AX es X = BX̄: ( x y ) = ( 1 1 α1 α2 )( c1e α1t c2e α2t ) x(t) = c1e α1t + c2e α2t c1, c2 ∈ R . 2. Si el polinomio caracteŕıstico u2 − au − b tiene dos ráıces imaginarias (a2 + 4b < 0) α ± iω = a 2 ± i √ −a2 − 4b 2 , hemos de sustituir R por C en el razonamiento anterior y considerar funciones con valores complejos, de modo que la solución general de la ecuación diferencial x′′ = ax′ + bx es x(t) = c1e (α+iω)t+c2e (α−iω)t = eαt ( c1e iωt+c2e −iωt ) , c1, c2 ∈ C En las soluciones reales c1 y c2 han de ser conjugados, c1 = ρe iθ y c2 = ρe −iθ, aśı que x(t) = eαt ( ρei(ωt+θ) + ρe−i(ωt+θ) ) x(t) = c eαt cos(ωt + θ) c, θ ∈ R . 5.3. DIAGONALIZACIÓN DE ENDOMORFISMOS 31 3. Para hallar las sucesiones (xn) = (x0, x1, . . .) tales que xn+2 = axn+1+bxn, planteamos el siguiente sistema de ecuaciones con una nueva sucesión incógnita (yn): { xn+1 = yn yn+1 = ayn + bxn , ( xn+1 yn+1 ) = ( 0 1 b a )( xn yn ) , Xn+1 = AXn cuya solución general es Xn = A nX0. Cuando a 2 + 4b 6= 0, la matriz A es diagonaliz- able, A = BDB−1, de modo que la solución general es Xn = BD nB−1X0: ( xn yn ) = ( 1 1 α1 α2 )( αn1 0 0 αn2 )( 1 1 α1 α2 )−1 ( x0 y0 ) ( xn yn ) = ( αn1 α n 2 αn+11 α n+1 2 )( c1 c2 ) , ( c1 c2 ) = ( 1 1 α1 α2 )−1 ( x0 y0 ) (5.3) xn = c1α n 1 + c2α n 2 4. La sucesión de Fibonacci (1170-1250) es la sucesión 0, 1, 1, 2, 3, 5, 8, 13,... cuyos términos iniciales son x0 = 0, x1 = 1, y cada término es la suma de los dos anteriores: xn+2 = xn+1 +xn. Como las ráıces del polinomio u 2 −u− 1 son α1 = φ y α2 = −φ−1, donde φ = (1 + √ 5)/2 ≈ 1′618... es la llamada proporción áurea, el término general de la sucesión de Fibonacci es xn = c1φ n + c2(−φ)−n . (5.4) Las constantes c1 y c2 pueden determinarse a partir de los términos iniciales x0 = 0, y0 = x1 = 1 mediante la fórmula 5.3, o bien resolviendo el sistema de ecuaciones lineales que se obtiene al dar los valores n = 0 y n = 1 en 5.4: c1 + c2 = x0 = 0 c1φ − c2φ−1 = x1 = 1 } , c1 = 1 φ + φ−1 = 1√ 5 , c2 = −c1 . xn = φn − (−φ)−n√ 5 . Teorema 5.3.1 Si α1, . . . , αm son valores propios de un endomorfismo T , distintos entre śı, entonces la suma de los subespacios vectoriales Vα1 , . . . , Vαm es directa, y por tanto dim (Vα1 + . . . + Vαm) = dimVα1 + . . . + dimVαm . Demostración: Según la definición de suma directa, hemos de probar que es inyectiva la siguiente aplicación lineal: s : Vα1 × . . . × Vαm −→ Vα1 + . . . + Vαm , s(v1, . . . , vm) = v1 + . . . + vm . Procedemos por inducción sobre m, y el enunciado es obvio cuando m = 1. Si m > 1 y v1 + . . . + vm = 0, donde vi ∈ Vαi , tendremos que 0 = T (v1 + . . . + vm) = α1v1 + . . . + αmvm y restando la igualdad 0 = αm(v1 + . . . + vm) obtenemos que 0 = (α1 − αm)v1 + . . . + (αm−1 − αm)vm−1 . Por hipótesis de inducción, se sigue que (α1 −αm)v1 = . . . = (αm−1 −αm)vm−1 = 0. Como αi 6= αj cuando i 6= j, concluimos que v1 = . . . = vm−1 = 0, y por tanto que también vm = −v1 − . . . − vm−1 = 0. Por último, dim (Vα1 ⊕ . . . ⊕ Vαm) = dimVα1 + . . . + dimVαm de acuerdo con 3.2.5. 32 CAPÍTULO 5. ENDOMORFISMOS Lema 5.3.2 Sean α1, . . . , αr todos los valores propios de un endomorfismo T de un espacio vectorial E de dimensión finita. T es diagonalizable si y sólo si Vα1 + . . . + Vαr = E. Demostración: Si T es diagonalizable, por definición Vα1 + . . . + Vαr contiene una base de E, y como es un subespacio vectorial de E, concluimos que Vα1 + . . . + Vαr = E. Rećıprocamente, si Vα1 + . . . + Vαr = E, considerando una base en cada sumando Vαi vemos que E admite un sistema de generadores formado por vectores propios de T , y 2.2.2 permite concluir que E admite una base formada por vectores propios de T ; es decir, que T es diagonalizable. Corolario 5.3.3 Si un endomorfismo T de un K-espacio vectorial E de dimensión n tiene n valores propios distintos (su polinomio caracteŕıstico tiene todas sus ráıces en K y son simples), entonces T es diagonalizable. Demostración: Si α1, . . . , αn son los valores propios de T , tenemos que 1 ≤ dimVαi aśı que n ≤ dimVα1 + . . . + dimVαn 5.3.1 = dim (Vα1 + . . . + Vαn) ≤ dimE = n . Luego dim (Vα1 + . . .+Vαn) = n, de modo que Vα1 + . . .+Vαn = E y T es diagonalizable de acuerdo con 5.3.2. Criterio de Diagonalización: Un endomorfismo T de un K-espacio vectorial de dimen- sión finita E es diagonalizable si y sólo si su polinomio caracteŕıstico cT (x) tiene todas sus ráıces en K y la multiplicidad mi de cada ráız αi coincide con la dimensión de Vαi : mi = dim Vαi . Demostración: Si T es diagonalizable, por definición su matriz en alguna base de E es D = α1 0 . . . 0 0 α2 . . . 0 . . . . . . . . . . . . 0 0 . . . αn aśı que su polinomio caracteŕıstico cT (x) = |xI −D| = (x−α1) . . . (x−αn) claramente tiene todas sus ráıces en K, y la multiplicidad mi de cada ráız αi es el número de veces que se repite αi en la sucesión α1, . . . , αn, de modo que rg (D − αiI) = n − mi y mi = n − rg (αiI − D) 3.2.2= dim ( Ker (αiId − T ) ) = dimVαi . Rećıprocamente, sean α1, . . . , αr ∈ K las ráıces en K de cT (x) y m1, . . . , mr sus respec- tivas multiplicidades. Si cT (x) tiene todas sus ráıces en K, entonces m1 + . . . + mr = gr cT (x) = dimE . Si además mi = dim Vαi para todo ı́ndice i = 1, . . . , r, entonces dim (Vα1 + . . . + Vαr ) 5.3.1 = dim Vα1 + . . . + dimVαr = m1 + . . . + mr = dim E, y obtenemos que Vα1 + . . . + Vαr = E. Luego T es diagonalizable de según 5.3.2. Nota: Si A es la matriz de T en una base de E, de acuerdo con 3.2.2 dimVαi = dim ( Ker (αiI − T ) ) = n − rg (αiI − A) . Índice de Materias altura, 22 aplicación, 3 biyectiva, 4 epiyectiva, 3 inversa, 4 inyectiva, 3 lineal, 15 argumento, 3 áurea, proporción, 31 baricentro, 11 base, 9 , cambio de, 19 ortonormal, 25 biyectiva, aplicación, 4 cambio de base, 19 canónica, proyección, 4 caracteŕıstico, polinomio, 28 ciclo, 4 circuncentro, 22 clase de equivalencia, 1 cociente , conjunto, 1 , espacio vectorial, 9 complejos, números, 2 composición, 3 congruencia, 1, 8 conjugado, 2 conjunto cociente, 1 coordenadas, 9 coseno, 22 Crámer, regla de, 6 cuadrilátero, 11 D’Alembert, teorema de, 27 dependencia lineal, 9 determinante, 5 diagonalizable, endomorfismo, 29 diagonalización, criterio de, 32 dimensión, 10 dirección, 8 directa, suma, 14 disjuntos, ciclos, 4 distancia, 21, 24 ecuaciones impĺıcitas, 18 paramétricas, 18 endomorfismo, 28 diagonalizable, 29 epiyectiva, aplicación, 3 equivalencia , clase de, 1 , relación de, 1 escalar, 5, 7 , producto, 21 espacio vectorial, 7 cociente, 9 eucĺıdeo, 23
Compartir