Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Álgebra Lineal Carolina B. Becerra O. Enero 2015 2 Índice general 1. Vectores en Rn 5 2. Sistemas de ecuaciones 11 3. Matrices 15 4. Determinantes 25 5. Espacios vectoriales 27 6. Transformaciones lineales 33 7. Valores y vectores propios 39 8. Ortogonalidad 43 9. Matrices Simétricas 49 3 4 ÍNDICE GENERAL Caṕıtulo 1 Vectores en Rn Definición 1.1. El conjunto de n tuplas ordenadas de números reales se denota por Rn y a sus elementos se les llama vectores. Rn = v = x1... xn tal que x1, . . . , xn ∈ R A x1, . . . , xn se les llama componentes o coordenadas del vector v. Al vector cuyas componentes son todas 0 se le llama vector nulo y se denota por −→ 0 . Definición 1.2. Vectores canónicos: ei = 0 ... 0 1 0 ... 0 ← i , para i = 1, . . . , n Definición 1.3. Dados u, v ∈ Rn la suma de u y v, denotada por u+ v es el vector cuyas componentes son la suma de las respectivas componentes de u y v. Dado α ∈ R, la ponderación de u por el escalar α ∈ R es el vector cuyas componentes son el producto de α por las respectivas componentes de u. Es decir: Si u = x1... xn , v = y1... yn , entonces u+ v = x1 + y1... xn + yn , αu = αx1... αxn . 5 6 CAPÍTULO 1. VECTORES EN RN Proposición 1.4. Sean u, v, w ∈ Rn y α, β ∈ R. Entonces las operaciones anteriores satisfacen: u+ v ∈ Rn. (u+ v) + w = u+ (v + w). u+ v = v + u. u+ −→ 0 = u. u+ (−u) = −→0 . αu ∈ Rn. α(u+ v) = αu+ αv. (α+ β)u = αu+ βu. α(βu) = (αβ)u. 1 u = u. Observación 1.5. Sea α ∈ R y u ∈ Rn. αu = 0⃗ si y sólo si α = 0 o u = 0⃗. Definición 1.6. Sean u, v ∈ Rn, el producto punto de u y v, denotado por u · v, es la suma de los respectivos productos entre coordenadas. Es decir Si u = x1... xn , v = y1... yn , entonces u · v = x1y1 + . . .+ xnyn = n∑ i=1 xiyi. Proposición 1.7. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto punto satisface: u · v ∈ R. u · 0⃗ = 0⃗. u · v = v · u. u · (v + w) = u · v + u · w. α(u · v) = (αu) · v. 7 u · u ≥ 0 y u · u = 0↔ u = 0⃗. Ejemplo 1.8. ei · ej = { 1 si i = j 0 si i ̸= j. para todo i, j = 1, . . . , n. Definición 1.9. Norma de un vector: Dado u = x1... xn ∈ Rn, ∥u∥ = √ n∑ i=1 xi 2 = √ u · u. Definición 1.10. Vector unitario: vector que tiene norma 1. Definición 1.11. Distancia entre vectores: d(u, v) = ∥u− v∥. Ejemplo 1.12. ∥ei∥ = 1 para todo i = 1 . . . n. d(ei, ej) = { 0 si i = j√ 2 si i ̸= j. para todo i, j = 1, . . . , n. Proposición 1.13. Sean α ∈ R y u, v ∈ Rn. Entonces ∥αu∥ = |α|∥u∥. ∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v. |u · v| ≤ ∥u∥∥v∥. ∥u+ v∥ ≤ ∥u∥+ ∥v∥. Definición 1.14. Sean u, v ∈ Rn−{⃗0}. El ángulo θ entre dos vectores es tal que: cos(θ) = u · v ∥u∥∥v∥ . Ejemplo 1.15. θ(ei, ej) = { 0 si i = j π/2 si i ̸= j. para todo i, j = 1, . . . , n. Definición 1.16. Sea {v1, . . . , vm} ⊆ Rn. Una combinación lineal de los vectores v1, . . . , vm es el vector α1v1 + . . .+ αmvm, donde αi ∈ R, para algunos α1, . . . , αm ∈ R. 8 CAPÍTULO 1. VECTORES EN RN Definición 1.17. Sea S ⊆ Rn. El conjunto generado por S, denotado por Gen es el conjunto de todas las combinaciones lineales de vectores de S. Ejemplo 1.18. Gen{e1, . . . en} = Rn. Proposición 1.19. Sean S, S1, S2 ⊆ Rn. Entonces Genϕ = Gen{−→0 } = {−→0 }. −→ 0 ∈ GenS. GenS es cerrado bajo la suma y multiplicación por escalar. S ⊂ GenS. S1 ⊂ S2 → GenS1 ⊂ GenS2. S1 ⊂ GenS2 → GenS1 ⊂ GenS2. GenS = GenGenS. Teorema 1.20. Sea S = {v1, v2, . . . , vm} ⊆ Rn. Si v1 es combinación lineal de v2, . . . , vm, entonces Gen{v1, v2, . . . , vm} = Gen{v2, . . . , vm} Definición 1.21. Sea S = {v1, v2, . . . , vm} ⊆ Rn. S es linealmente dependiente (LD) si existen escalares α1, . . . , αm no todos nulos tal que α1v1 + . . . + αmvm = −→ 0 . (se puede construir al vector cero de manera no trivial). S es linealmente independiente (LI) si no es LD, es decir si para cualquier combinación lineal α1v1+ . . .+αmvm = −→ 0 , se tiene necesari- amente que α1 = . . . = αm = 0. (la única manera de construir al vector cero es la trivial). Observación 1.22. Si 0⃗ ∈ S ⊆ Rn, entonces S es LD. Proposición 1.23. Sea S ⊆ Rn. Entonces S es LD si y sólo si existe un vector de S que es combinación lineal del resto de los vectores de S. 9 S es LI si y sólo si todo subconjunto de S es LI. Definición 1.24. Recta en R2. Sea d ∈ R2 no nulo, L = {x ∈ R2 tal que x = u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen. Definición 1.25. Recta en R3. Sea d ∈ R3 no nulo, L = {x ∈ R3 tal que x = u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen. Definición 1.26. Recta en Rn. Sea d ∈ Rn no nulo, L = {x ∈ Rn tal que x = u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen. Definición 1.27. Plano en R3. Sea d1, d2 ∈ Rn L.I, Π = {x ∈ Rn tal que x = u+ αd1 + βd2, α, β ∈ R}. Si u = 0⃗ se dice que Π pasa por el origen. Definición 1.28. Sean u ∈ Rn y b ∈ R. El hiperplano definido por u y b es H = {x ∈ Rn : x · u = b}. Si b = 0, se dice que pasa por el origen. Ejemplo 1.29. En R4 seaH = {x ∈ R4 : x1+x2−2x3−x4 = 0 tal que x1, x2, x3, x4 ∈ R}. x ∈ H ↔ x = x1x2x3 x1 + x2 − 2x3 para x1, x2, x3 ∈ R. x ∈ H ↔ x = x1 100 1 + x2 010 1 + x3 001 −2 para x1, x2, x3 ∈ R. Por lo tanto H = Gen{ 100 1 , 010 1 , 001 −2 }. Observación 1.30. Todo hiperplano en Rn que pasa por el origen es un conjunto generado por (n − 1) vectores L.I. Todo hiperplano en Rn es la suma de un vector posición y un conjunto generado por (n− 1) vectores L.I. Todo hiperplano en R3 es un plano en R3. Observación 1.31. Problema importante: ¿ Todo plano en R3 es un hiper- plano? Observación 1.32. Problema importante: Dado un conjunto S y un vector b en Rn. ¿b ∈ GenS? 10 CAPÍTULO 1. VECTORES EN RN Caṕıtulo 2 Sistemas de ecuaciones Definición 2.1. Una matriz es un arreglo ordenado de m vectores de Rn. Notación: A = [v1 v2 . . . vm]. Se dice que A es una matriz de n×m, donde m es el número de columnas y n es el número de filas. Si vj = a1,j... an,j para j = 1, . . . ,m, entonces A = (ai,j), donde ai,j son los coeficientes o entradas de la matriz. Definición 2.2. Matriz nula es tal que todos sus coeficientes son 0. Definición 2.3. Matriz cuadrada es tal que n = m. Definición 2.4. Matriz identidad es una matriz cuadrada denotada por I tal que I = [e1 . . . en]. Definición 2.5. Dada A = [v1 v2 . . . vm] de n×m y x = x1... xm ∈ Rm, el producto de A por x es Ax = x1v1 + x2v2 + . . .+ xmvm ∈ Rn. Proposición 2.6. Sea A de n×m, x, y ∈ Rm y α ∈ R. Entonces A(x+ y) = Ax+ Ay. A(αx) = αAx. A0⃗ = 0⃗. 11 12 CAPÍTULO 2. SISTEMAS DE ECUACIONES Observación 2.7. Todo sistema de ecuaciones se puede escribir de la forma matricial Ax = b. Definición 2.8. Un sistema de ecuaciones Ax = b es tal que A es una matriz de n×m asociada al sistema, b ∈ Rn y x ∈ Rm. [A b] es la matriz ampliada del sistema. El sistema es homogéneo si b = −→ 0 y no homogéneo si b ̸= −→0 . El sistema es consistente si tiene solución e inconsistente si no tiene solución. Definición 2.9. Una matriz se dice que está en la forma escalonada (F.E.) si: 1. a1,1 ̸= 0. 2. Si el pivote de la fila i está en la columna j, entonces el pivote de la fila i+ 1 está en la columna k, tal que j < k. (Pivote: primer elemento distinto de 0 de la fila). 3. Las filas nulas están al final de la matriz. Definición 2.10. Una matriz se dice que está en la forma escalonada re- ducida (F.E.R.) si: 1. Está es la F.E. 2. Todos los pivotes son iguales a 1. 3. Los vectores columna que contienen pivotes son canónicos. Definición 2.11. Dada una matriz, las operaciones fila son: 1. Tipo I: Intercambiar dos filas: Fi ↔ Fj. 2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi → λFi. 3. Tipo III: (pivotear) Sumar a una fila, un múltiplo escalar de otra: Fi → Fi + λFj. Observación 2.12. Para solucionar un sistema de ecuaciones se lleva la matrizampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema es consistente, a las variables que quedan en posiciones no pivotes se les llama variables libres. 13 Observación 2.13. Lo anterior funciona pues si [A|b] ∼ [A′|b′], entonces Ax = b↔ A′x = b′. Teorema 2.14. Sea el sistema de ecuaciones Ax = b con A de n×m, y M la F.E.R. de la matriz M = [A b]. Para b ̸= 0⃗, el sistema es inconsistente si y sólo si M tiene una fila de la forma [0 . . . 0 c] con c ̸= 0, es consistente y tiene solución única si y sólo si M tiene m pivotes, es consistente y tiene infinitas soluciones si y sólo si M tiene menos de m pivotes (hay variables libres). Para b = −→ 0 el sistema es consistente ( −→ 0 es solución) y tiene solución única si y sólo si F.E. de A tiene m pivotes, tiene infinitas soluciones si y sólo si F.E. de A tiene menos de m pivotes (hay variables libres). Definición 2.15. Rango de un sistema: número de pivotes de la forma escalonada de la matriz ampliada del sistema. Rango de una matriz: número de pivotes de la forma escalonada del sistema homogéneo asociado a la ma- triz. Teorema 2.16. Sea el sistema Ax = b, u tal que Au = b y los conjuntos C1 = {x : Ax = b} y C2 = {y : Ay = 0⃗}. Entonces x ∈ C1 si y sólo si x− u ∈ C2. Proposición 2.17. Sea S = {v1, . . . , vm} ⊂ Rn y A = [v1 . . . vm]. S es L.I. si y sólo si el sistema Ax = 0⃗ tiene solución única. Proposición 2.18. Sea S = {v1, . . . , vm} ⊂ Rn y A una matriz cuyas filas son los vectores del conjunto S. S es L.I. si y sólo si la F.E. de la matriz A no tiene filas nulas. Teorema 2.19. Sea v1, . . . , vm un conjunto de vectores de Rn. Si m > n, entonces v1, . . . , vm es L.D. 14 CAPÍTULO 2. SISTEMAS DE ECUACIONES Observación 2.20. Sea S = {v1, . . . , vm} ⊂ Rn, A = [v1 . . . vm] y b ∈ Rn. Entonces b ∈< v1, . . . , vm > si y sólo si el sistema Ax = b es consistente. Observación 2.21. Sea A de n × m y b1, . . . br ∈ Rn, para resolver Ax = b1, Ax = b2, . . . , Ax = br se escalona una única matriz [A b1 b2 . . . br] y se interpreta la solución para cada sistema por separado. Observación 2.22. Para buscar la intersección de n hiperplanos, se resuelve el sistema asociado a las n ecuaciones. Caṕıtulo 3 Matrices Definición 3.1. Sea A una matriz de n × m, se define una función TA : Rm → Rn, dada por TA(x) = Ax Ejemplo 3.2. A = [ 1 −2 1 0 1 3 ] , entonces TA [ 1 2 3 ] = [ 0 11 ] . Observación 3.3. El dominio de esta función es Rm. La imagen de 0⃗ ∈ Rm es 0⃗ ∈ Rn. Proposición 3.4. Sea A una matriz de n×m, la función TA se dice que es lineal pues para x, y ∈ Rm y α ∈ R TA(x+ y) = A(x+ y) = Ax+ Ay = TA(x) + TA(y), TA(αx) = A(αx) = αAx = αTA(x). Observación 3.5. En adelante la función TA se denotará por A. Definición 3.6. Mn,m(R) es el conjunto de todas las matrices de n×m con coeficientes reales. Definición 3.7. Sean A = [v1 . . . vm] , B = [u1 . . . um] ∈Mn,m(R) y α ∈ R. La operaciones suma y multiplicación por escalar de matrices se definen por A+B = [v1 + u1 . . . vm + um] , αA = [αv1 . . . αvm]. Observación 3.8. −1 · A = −A. 15 16 CAPÍTULO 3. MATRICES Proposición 3.9. Sean A,B,C ∈Mn,m(R) y α, β ∈ R. Entonces A+B ∈Mn,m(R). (A+B) + C = A+ (B + C). A+B = B + A. A+ 0 = A. A+ (−A) = 0. αA ∈Mn,m(R). α(A+B) = αA+ αB. (α+ β)A = αA+ βA. α(βA) = (αβ)A. 1 A = A. Definición 3.10. Sea A de n×m y B de m× p, tal que B = [u1 . . . up], el producto de A por B es la matriz A ·B = [A · u1 . . . A · up] de n× p. Proposición 3.11. Sean A,B,C matrices tal que las siguientes operaciones están bien definidas y α ∈ R. Entonces A(BC) = (AB)C. α(AB) = (αA)B = A(αB). A(B + C) = AB + AC. (A+B)C = AC +BC. IA = AI = A. 0A = A0 = 0. Observación 3.12. En general el producto de matrices no es conmutativo. A = [ 0 1 0 0 ] , B = [ 1 0 0 0 ] y AB = [ 0 0 0 0 ] ̸= [ 0 1 0 0 ] = BA. 17 Definición 3.13. Sea A de n×m, la trasnpuesta de A denotada por At es de m × n y es la matriz que resulta de intercambiar las filas de A por las columnas de la A. Ejemplo 3.14. Si A = [ 0 1 2 3 4 −1 ] , entonces At = [ 0 2 4 1 3 −1 ] . Proposición 3.15. Sean A,B matrices tal que las siguientes operaciones están bien definidas y α ∈ R. Entonces (At)t = A. α(At) = (αA)t. (A+B)t = At +Bt. (AB)t = BtAt. Definición 3.16. Sea A = (ai,j) de n× n. A es triangular superior si ai,j = 0 para todo i > j. A es triangular inferior si ai,j = 0 para todo i < j. A es diagonal si ai,j = 0 para todo i ̸= j. A es simétrica si A = At. A es antisimétrica si A = −At. Definición 3.17. Sea A de n×m. Ker(A) = {x ∈ Rm : Ax = −→0 }. Es el conjunto de pre-imágenes del vector cero. Es el conjunto solución del sistema homogéneo asociado a la matriz A. Es un subconjunto de Rm. Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la función dada por la matriz A. Es el conjunto de todos los vectores b tal que el sistema Ax = b es consitente. Es el conjunto generado por las columnas de la matriz A. Es un subconjunto de Rn. 18 CAPÍTULO 3. MATRICES C(A) es el conjunto generado por las columnas de la matriz A. Es el recorrido de la función dada por la matriz A. Es el conjunto de todos los vectores b tal que el sistema Ax = b es consistente. Es un subconjunto de Rn. (Está generado por las columnas de la matriz que en su forma escalonada están en las posiciones pivotes). F (A) es el conjunto generado por las filas de la matriz A. Es un sub- conjunto de Rm. (Está generado por las filas no nulas de la forma escalonada de la matriz). Observación 3.18. Im(A) = C(A) = F (At). Teorema 3.19. Sea A de n×m. Entonces A es 1-1 (inyectiva) si y sólo si Ker(A) = {−→0 }. A es sobreyectiva si y sólo si Im(A) = Rn. Teorema 3.20. Sea A de n×m. Entonces Filas de A son L.D. ↔ Existe una fila que es combinación lineal del resto. ↔ fn = α1f1 + . . .+ αn−1fn−1 (sin perder generalidad) ↔ La FER de A tiene por lo menos una fila nula (haciendo las operaciones del tipo III necesarias). Filas de A son L.I. ↔ La F.E.R. de A tiene no tiene filas nulas. ↔ Todas las filas de la F.E.R. de A contienen pivotes. ↔ Rango de A es n. A es 1-1 ↔ Ker(A) = {−→0 }. ↔ Ax = −→0 tiene solución única. ↔ Columnas de A son L.I. ↔ Rango de A es m. 19 A es sobre ↔ Im(A) = Rn. ↔ Ax = b es consistente para todo b ∈ Rn. ↔ Ax = ei es consistente para todo vector canónico. ↔ La FER de [A e1 . . . en] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo. ↔ Filas de A son L.I. ↔ Rango de A es n. Definición 3.21. A de n × n es invertible si existe una matriz B de n × n tal que AB = I. Teorema 3.22. Sea A una matriz de n× n. Entonces A es invertible. ↔ Existe B tal que AB = I. ↔ Existen u1, . . . , un tal que A[u1 . . . un] = [e1 . . . en]. ↔ Ax = ei es consistente para todo vector canónico. ↔ A es sobre. ↔ Filas de A son L.I. ↔ Rango de A es n. Observación 3.23. Para encontrar la inversa de una matriz, hay que escalonar la matriz [AI] y resolviendo cada sistema se obtienen las columnas de la ma- triz B. Teorema 3.24. Sea A una matriz de n× n. Entonces A es invertible. ↔ Existe B tal que BA = I. ↔ Ax = 0⃗ tiene solución única. ↔ A es inyectiva. ↔ Columnas de A son L.I. ↔ Rango de A es m. Observación 3.25. Sea A de n×n. Si A es invertible, entonces su rango es n, luego existe B tal que . Además es única. La notación para la inversa de A es A−1. Proposición 3.26. Sean A y B de n× n. Entonces 20 CAPÍTULO 3. MATRICES A es invertible si y sólo si Ax = b tiene solución única para todo b ∈ Rn. Si A es invertible, entonces (A−1)−1 = A. A es invertible si y sólo si At es invertible. En este caso (At)−1 = (A−1)t. Si A es invertible y α ̸= 0, entonces αA es invertible y (αA)−1 = 1 α A−1. Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene (Ar)−1 = (A−1)r = A−r. SiA yB son invertibles, entoncesAB es invertible y (AB)−1 = B−1A−1. Observación 3.27. Sean A1, . . . , Ak matricescuadradas e invertibles. En- tonces (A1 · . . . · Ak)−1 = (Ak)−1 · . . . · (A1)−1. Proposición 3.28. Sean A,B,C,D matrices tal que las siguientes opera- ciones están bien definidas. Entonces Si A es invertible y AB = AC, entonces B = C. Si A es invertible y BA = CA, entonces B = C. Si A es invertible y AB = BA, entonces BA−1 = A−1B. Si A es invertible, puede ocurrir que A−1BA ̸= B. Si A y B son invertibles, y ACB = D, entonces C = A−1DB−1. Observación 3.29. Una matriz diagonal es invertible si y sólo si todos los elementos de su diagonal son no nulos. Observación 3.30. Una matriz triangular superior (o inferior) es invertible si y sólo si todos los elementos de su diagonal son no nulos. Ejemplo 3.31. Productos notables. Estudio de utu y uut. Sea A,B de n× 1 tal que 1− AtB ̸= 0. Demuestre que (I − ABt)−1 = I + 1 (1− AtB) ABt. 21 La triangularidad se mantiene en el producto y al tomar inversas. Definición 3.32. EI (EII , EIII) es una matriz elemental del tipo I (II, III), si es la matriz que resulta de hacer una operación elemental del tipo I (II, III) a la matriz identidad. Se dice que la matriz E representa dicha operación elemental. Observación 3.33. tipo matriz operación transpuesta operación inversa operación I EI Fi ↔ Fj EI Fi ↔ Fj EI Fi ↔ Fj II EII Fi → λFi EII Fi → λFi ẼII Fi → 1/λFi III EIII Fi → Fi + αFj ẼIII Fj → Fj + αFi ˜̃ EIII Fi → Fi − αFj Observación 3.34. Si A es de n×m y B es la matriz de n×m que resulta de hacerle a A una operación elemental, entonces EA = B, donde E es la matriz que representa dicha operación elemental. Proposición 3.35. Si A es de n ×m y B = F.E. de A, entonces Ek · . . . · E2 · E1A = B, donde Ei son las matrices elementales que representan las operaciones elementales que llevan la matriz A en la matriz B. Teorema 3.36. A de n × n es no singular si y sólo si A se puede escribir como producto de matrices elementales. Teorema 3.37. A de n×n es no singular si y sólo si F.E.R de A es la matriz identidad Observación 3.38. Se definen las operaciones elementales por columnas y se trabaja con la transpuesta. Teorema 3.39. Si A es de n×m y U es una forma escalonada de A, tal que U se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe L triangular inferior invertible, tal que A = LU 22 CAPÍTULO 3. MATRICES Teorema 3.40. Si A es de n × m y U es una forma escalonada de A, tal que U se obtiene con la necesidad de hacer operaciones del tipo I, entonces existe L triangular inferior invertible y P una matriz producto de lementales del tipi I, tal que PA = LU Observación 3.41. Si A = LU , para resolver Ax = b se hace el cambio de variable Ux = y. Observación 3.42. Si PA = LU , para resolver Ax = b se multiplica el sistema por P y luego se hace el cambio de variable Ux = y. Definición 3.43. Si A es de n × n la forma cuadrática asociada a A es qA : Rn → R, definida por qA(v) = v tAv Observación 3.44. Si A es de n× n, se tiene que qA = qAt = q(A+At 2 ) La matriz simétrica B = ( A+ At 2 ) , es la única tal que qA = qB En adelante las matrices que definen a formas cuadráticas serán cuadradas y simétricas. Definición 3.45. Dada A de n × n, la submatriz principal Ak para k = 1, . . . , n es la matriz que resulta de eliminar la últimas n − k filas y las últimas n− k columnas de A. Notar que An = A. Proposición 3.46. SiA es de n×n y sus submatrices principalesA1, · · · , An−1 son invertibles, entonces A admite la descomposición LU . Si L tiene sólo unos en su diagonal, entonces L y U son únicas. Teorema 3.47. Sea A = At. Si A = LU , entonces existe D diagonal tal que A = LDLt. (Entonces el signo de A es igual al signo de D). Definición 3.48. Una matriz (o su forma cuadrática asociada) se dice: positiva definida si ∀v ̸= −→0 , qA(v) > 0. 23 negativa definida si ∀v ̸= −→0 , qA(v) < 0. semidefinida positiva si ∀v ̸= −→0 , qA(v) ≥ 0. semidefinida negativa si ∀v ̸= −→0 , qA(v) ≤ 0. Observación 3.49. Si D es diagonal, con elementos d1, . . . , dn en su diago- nal, entonces D (o qD) es positiva definida si di > 0, para todo i = 1, . . . , n. negativa definida si di < 0, para todo i = 1, . . . , n. semidefinida positiva si di ≥ 0, para todo i = 1, . . . , n. semidefinida negativa si di ≤ 0, para todo i = 1, . . . , n. Proposición 3.50. Sea A = At. Si A es positiva definida, entonces A es invertible. Ak es positiva definida, para todo k = 1, . . . , n. Ak es invertible, para todo k = 1, . . . , n. Teorema 3.51. Sea A = At. A es positiva definida si y sólo si existe L triangular inferior invertible con unos en su diagonal, y D diagonal, con elementos en la diagonal positivos, tal que A = LDLt. Observación 3.52. En el teorema anterior se define a √ D como la matriz diagonal, que en su diagonal tiene las ráıces positivas de los elementos de la diagonal de D. Entonces A = L √ D √ DLt = RtR que es llamada la descomposición con ráız cuadrada de una matriz positiva definida. Ejemplo 3.53. Sea A = [ 3 3 3 3 5 5 3 5 11 ] . Entonces 24 CAPÍTULO 3. MATRICES A = [ 1 0 0 1 1 0 1 1 1 ] [ 3 3 3 0 2 2 0 0 6 ] = LU = [ 1 0 0 1 1 0 1 1 1 ] [ 3 0 0 0 2 0 0 0 6 ] [ 1 1 1 0 1 1 0 0 1 ] = LDLt = [ 1 0 0 1 1 0 1 1 1 ] [ √ 3 0 0 0 √ 2 0 0 0 √ 6 ] [ √ 3 0 0 0 √ 2 0 0 0 √ 6 ] [ 1 1 1 0 1 1 0 0 1 ] = L √ D √ DLt = [ √ 3 0 0√ 3 √ 2 0√ 3 √ 2 √ 6 ] [ √ 3 √ 3 √ 3 0 √ 2 √ 2 0 0 √ 6 ] = RtR Caṕıtulo 4 Determinantes Definición 4.1. Determinante es una función: Det : Mn(R)→ R tal que: |I| = 1 Si EIA = B → −|A| = |B| Si EIIA = B → λ|A| = |B| Si EIIIA = B → |A| = |B| Observación 4.2. Tomando A = I en la definición: |EI | = −1, |EII | = λ, |EIII | = 1. Reemplazando en la definición queda que si E es una matriz elemental, entonces |EA| = |E| · |A|. Observación 4.3. Si A = [ a b c d ] , entonces |A| = ad− bc Proposición 4.4. Sea A una matriz de cuadrada. Entonces Si A tiene dos filas iguales, entonces |A| = 0. Si A tiene una fila nula, entonces |A| = 0. Si A es triangular o diagonal, entonces |A| = Πai,i. Teorema 4.5. Sea A una matriz de cuadrada. Entonces A es invertible si y sólo si |A| ̸= 0. 25 26 CAPÍTULO 4. DETERMINANTES Teorema 4.6. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|. (Usar: A y B son invertibles si y sólo si AB es invertible.) Proposición 4.7. Sea A una matriz de cuadrada. Entonces |At| = |A| Si A es invertible, entonces |A−1| = 1/|A| Proposición 4.8. La función determinante es lineal en las filas y en las columnas. Definición 4.9. Menor i, j de una matriz A es el determinante de la matriz que resulta de eliminar de A la fila i y la columna j. Notación: Mi,j =. Cofactor i, j de una matriz A es Ci,j = (−1)i+j Mi,j Teorema 4.10. |A| = ai,1Ci,1 + . . . + ai,nCi,n para todo i = 1, . . . , n. (caso i = 1) Proposición 4.11. Sea A una matriz de cuadrada. Entonces Si PA = LU , entonces (−1)k|A| = Πui,i Si A = LDLt, entonces |A| = Πdi,i Definición 4.12. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) = (ci,j) t. Teorema 4.13. Sea A una matriz de cuadrada. Entonces A · Adj(A) = Adj(A) · A = |A| I Proposición 4.14. Sea A una matriz de cuadrada. Si A es invertible, en- tonces A−1 = 1/|A| Adj(A) Proposición 4.15. Sea A una matriz simétrica. A es positiva definida si y sólo si, los determinantes de las submatrices principales son todos positivos. Caṕıtulo 5 Espacios vectoriales Definición 5.1. Cuerpo o campoK,+, · conjunto tal que con las operaciones suma y multiplicación cumple: + es cerrada: ∀α, β ∈ K α + β ∈ K + es asociativa: ∀α, β, γ ∈ K (α+ β) + γ = α+ (β + γ) + es conmutativa: ∀α, β ∈ K α+ β = β + α Existe un neutro para la +: ∃0∀α : 0 + α = α+ 0 = α Existe un inverso para la +: ∀α∃β : α+ β = β + α = 0 · es cerrada: ∀α, β ∈ K α · β ∈ K · es asociativa: ∀α, β, γ ∈ K (α · β) · γ = α · (β · γ) · es conmutativa: ∀α, β ∈ K α · β = β · α Existe un neutro para la ·: ∃1∀α : 1 · α = α · 1 = α Existe un inverso para la ·: ∀α ̸= 0∃β : α · β = β · α = 1 ∀α, β, γ ∈ K α· (β + γ) = α · β + α · γ Ejemplo 5.2. Q,R,C Definición 5.3. Un conjunto no vaćıo V es un espacio vectorial sobre el cuerpo K si existen dos operaciones: suma y multiplicación por escalar tal que: 27 28 CAPÍTULO 5. ESPACIOS VECTORIALES + es cerrada: ∀u, v ∈ V u+ v ∈ V + es asociativa: ∀u, v, w ∈ V (u+ v) + w = u+ (v + w) + es conmutativa: ∀u, v ∈ V u+ v = v + u Existe un neutro para la +: ∃0⃗V ∀u : 0⃗V + u = u+ 0⃗V = u Existe un inverso para la +: ∀u∃(−u) : u+ (−u) = (−u) + u = −→0 · es cerrada: ∀u ∈ V, α ∈ K α · u ∈ V ∀u, v ∈ V, α ∈ K α · (u+ v) = α · u+ α · v ∀u ∈ V, α, β ∈ K (α+ β) · u = α · u+ β · u ∀u ∈ V, α, β ∈ K (αβ) · u = α · (βu) ∀u ∈ V 1 · u = u A los elementos de V se les llama vectores. Ejemplo 5.4. Algunos espacios vectoriales: Rn sobre R. Pn(R) sobre R. Mn,m(R) sobre R. C[a, b] sobre R. Proposición 5.5. Si V es un espacio vectorial sobre K, entonces 0⃗V es único. −(u+ v) = (−u) + (−v). −u es único. α · 0⃗V = 0⃗V . 0 · u = 0⃗V . α · u = 0⃗V si y sólo si α = 0 o u = 0⃗V . 29 Definición 5.6. Una combinación lineal de vectores v1, . . . , vm es un vector de la forma α1v1 + . . .+ αmvm. Ejemplo 5.7. En C[0, π], 1 · sen2 +1 · cos2 = 1. Definición 5.8. Sea S = {v1, . . . , vm}. S es linealmente independiente si la única manera de construir al vector cero es la trivial: α1v1 + . . .+ αmvm = −→ 0 → α1 = . . . = αm = 0 S es linealmente dependinete si es posible construir al vector cero de manera no trivial: ∃α1, . . . αm no todos nulos, tal que α1v1 + . . .+ αmvm = −→ 0 Observación 5.9. Sea S = {v1, . . . , vm}. Entonces S es LI si y sólo si todo subconjunto de S es LI. S es LD si y sólo si todo conjunto que contiene a S es LD. Teorema 5.10. Sea S = {v1, . . . , vm}. S es LD si y sólo si existe v ∈ S que es combinación lineal del resto de los vectores de S. Definición 5.11. Sea S = {v1, . . . , vm}. El conjunto generado por S es GenS = Gen{v1, . . . , vm} = {α1v1 + . . .+ αmvm, tal que α1, . . . , αm ∈ R} Observación 5.12. {⃗0V } es L.D. y {⃗0V } = Gen{⃗0V } Observación 5.13. Sean S1 y S2 conjuntos de vectores de un espacio vec- torial V . Si S1 ⊂ S2, entonces GenS1 ⊂ GenS2 Si S1 ⊂< S2 >, entonces GenS1 ⊂ GenS2 Proposición 5.14. Sea S = {v1, . . . , vm}. vj es combinación lineal de vec- tores de S ↔ GenS = GenS − {vj} Proposición 5.15. Sea S = {v1, . . . , vm}. Si S es LI y v ∈< S >, entonces v se escribe de manera única como combinación lineal de los vectores de S. 30 CAPÍTULO 5. ESPACIOS VECTORIALES Definición 5.16. Sea V un espacio vectorial sobre K y U ⊆ V . U es un subespacio de V si es distinto del vaćıo y con las operaciones heredadas de V es un espacio vectorial. Notación: U 6 V Proposición 5.17. U 6 V si y sólo si U es no vaćıo, es cerrado bajo la suma y es cerrado bajo la multiplicación por escalar. Observación 5.18. Todo conjunto generado es un subespacio. Teorema 5.19. Sean U1, U2 subespacios de V . Entonces U1 ∩ U2 es subespacio de V . U1 + U2 = {u1 + u2 : u1 ∈ U1, u2 ∈ U2} es subespacio de V . Si en este caso, U1 ∩ U2 = { −→ 0 }, entonces se dice que la suma es directa y se denota: U1 ⊕ U2. Teorema 5.20. Si V =< v1, . . . , vn > tal que {v1, . . . , vn} es L.I., entonces todo conjunto L.I. de V contiene a lo más n elementos. Definición 5.21. B ⊂ V es una base de V si B es LI y < B >= V . Teorema 5.22. Si B es una base de V y la cardinalidad de B es n, entonces todas las bases de V tienen n elementos. Se dice que la dimensión de V es n. Notación: Dim(V ) = n. Proposición 5.23. Si Dim(V ) = n, entonces S es LI → #S 6 n. < S >= V → #S > n. Proposición 5.24. Si Dim(V ) = n y S = {v1, . . . , vn}, entonces S es LI →< S >= V . < S >= V → S es L.I. Observación 5.25. Si U es subespacio de V y Dim(V ) = n, entonces Dim(U) 6 Dim(V ) Proposición 5.26. Sea A de n×m. Entonces 31 C(A) es un subespacio de Rn de dimensión igual al rango de A. F (A) es un subespacio de Rm de dimensión igual al rango de A. At es de m× n, F (At) = C(A) y C(At) = F (A). Definición 5.27. Sea B = {v1, . . . , vn} una base de V y v ∈ V tal que v = x1v1 + . . . xnvn. El vector coordenado de x en la base B es: [v]B = x1... xn Proposición 5.28. Sean u, v ∈ V y B una base de V . Entonces [u+ v] = [u] + [v]. [αu] = α[u]. {u1, . . . , um} es L.I. si y sólo si {[u1], . . . , [um]} es L.I. u ∈ Gen{u1, . . . , um} si y sólo si [u] ∈ Gen{[u1], . . . , [um]}. Definición 5.29. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V . Se define la matriz P 12 = [ [v1]2 . . . [vn]2 ]. Proposición 5.30. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V . Para todo x ∈ V : P 12 · [x]1 = [x]2. P 12 es invertible. (P 12 ) −1 = P 21 32 CAPÍTULO 5. ESPACIOS VECTORIALES Caṕıtulo 6 Transformaciones lineales Definición 6.1. Sean V y W espacios vectoriales. T : V → W es una transformación lineal si T (v1 + v2) = T (v1) + T (v2) y T (αv) = αT (v). Proposición 6.2. Sean V y W espacios vectoriales y T : V → W una transformación lineal. Entonces T (0⃗V ) = 0⃗W . T (−v) = −T (v). Observación 6.3. Si B es una base de V , entonces T queda determinada por cómo actúa sobre la base. Definición 6.4. Sean V y W espacios vectoriales y T : V → W una trans- formación lineal. Ker(T ) = {v ∈ V : T (v) = −→0W} . Im(T ) = {w ∈ W : ∃v ∈ V : T (v) = w} . Proposición 6.5. Sean V y W espacios vectoriales y T : V → W una transformación lineal. Ker(T ) es un subespacio de V y su dimensión es la nulidad de T . Im(T es un subespacio de W y su dimensión es el rango de T . Observación 6.6. Si B es una base de V , entonces GenT (B) = Im(T ). 33 34 CAPÍTULO 6. TRANSFORMACIONES LINEALES Definición 6.7. Sean V y W espacios vectoriales y T : V → W una trans- formación lineal. Si T es inyectiva se dice que es un monomorfismo. Si T es sobre se dice que es un epimorfismo. Si T es inyectiva y sobre se dice que es un isomorfismo y se denota por V ∼= W . Teorema 6.8. Sean V y W espacios vectoriales y T : V → W una transfor- mación lineal. T es inyectiva si y sólo si Ker(T ) = {0⃗V }. T es sobre si y sólo si Im(T ) = W . Proposición 6.9. Sean V y W espacios vectoriales y T : V → W una transformación lineal. Si T es inyectiva y S ⊂ V es L.I., entonces T (S) es L.I. Definición 6.10. Sean V y W espacios vectoriales, T : V → W una trans- formación lineal, B1 = {v1, . . . , vm} una base de V y B2 = {w1, . . . , wn} una base de W . La matriz de T con respecto a B1 y B2 es una matriz de n×m dada por [T ]12 = [ [T (v1)]2 . . . [T (vm)]2 ] Proposición 6.11. Sean V y W espacios vectoriales, T : V → W una transformación lineal, B1 = {v1, . . . , vm} una base de V y B2 = {w1, . . . , wn} una base de W . Entonces [T ]12 · [v]1 = [T (v)]2, para todo v ∈ V . v ∈ Ker(T ) si y sólo si [v]1 ∈ Ker[T ]12. w ∈ Im(T ) si y sólo si [w]2 ∈ Im[T ]12. T es un isomorfismo (V ∼= W ) si y sólo si [T ]12 es cuadrada e invertible. En este caso T−1 es una transformación lineal y ([T ]12) −1 = [T ]21. Teorema 6.12. Sean V y W espacios vectoriales y T : V → W una trans- formación lineal. Entonces Dim Ker(T ) + Dim Im(T ) = Dim(V ). 35 Proposición 6.13. Sea V espacio vectorial de dimensión m y B1 y B3 bases de V . Sea W espacio vectorial de dimensión n y B2 y B4 bases de W . Hay dos matrices cambio de bases: P 13 y P 2 4 . Sea T : V → W y las dos matrices asociadas a T : [T ]12 y [T ]34. Sean x ∈ V, y ∈ W . Entonces [x]3 = P 1 3 · [x]1. [y]4 = P 2 4 · [y]2. [T ]12 · [x]1 = [T (x)]2. [T ]34 · [x]3 = [T (x)]4. Reemplazndo: [T ]34 · [x]3 = [T (x)]4. [T ]34 · P 13 · [x]1 = P 24 · [T (x)]2. [T ]34 · P 13 · [x]1 = P 24 · [T ]12 · [x]1. Entonces [T ]34 · P 13 = P 24 · [T ]12 Esquema: [T ]12 V → W B1 B2 P 13 ↓ � ↓ P 24 V → W B3 B4 [T ]34 Ejemplo 6.14. Un ejemplo de la relación entre matriz cambio de base y matriz de una transformación lineal es: 36 CAPÍTULO 6. TRANSFORMACIONES LINEALES Sea V = M2(R) con las siguientes bases: B1 = {[ 1 0 0 0 ] , [ 1 1 00 ] , [ 0 0 1 0 ] , [ 0 0 1 1 ]} B3 = {[ 1 0 0 0 ] , [ 0 1 0 0 ] , [ 0 0 1 0 ] , [ 0 0 0 1 ]} La matriz cambio de base P 13 es P 1 3 = 1 1 0 0 0 1 0 0 0 0 1 1 0 0 0 1 Sea W = P2(R) con las siguientes bases: B2 = {1, 1 + x, 1 + x2} B4 = {1, x, x2} La matriz cambio de base P 24 es P 2 4 = 1 1 10 1 0 0 0 1 Sea T : M2(R)→ P2(R), dada por T ([ a b c d ]) = (a+ b) + (b+ c)x+ (c+ d)x2 La matriz de T con respecto a las bases B1 en V y B2 en W es: [T ]12 = 1 1 −2 −30 1 1 1 0 0 1 2 La matriz de T con respecto a las bases B3 en V y B4 en W es: [T ]34 = 1 1 0 00 1 1 0 0 0 1 1 Sea A = [ 1 2 3 4 ] ∈ V y entonces: 37 [A]1 = −1 2 −1 4 , [A]3 = 1 2 3 4 Luego T (A) = 3 + 5x+ 7x2 ∈ W y entonces [T (A)]2 = −95 7 , [T (A)]4 = 35 7 Y se cumple [T ]12 · [A]1 = [T (A)]2 y [T ]34 · [A]3 = [T (A)]4 Proposición 6.15. Sean T y L transformaciones lineales de V en W . En- tonces (T + L) : V → W dada por (T + L)(v) = T (v) + L(v) es una trans- formación lineal, y (αT ) : V → W dada por (αT )(v) = αT (v) es una trans- formación lineal. Además [T + L] = [T ] + [L] y [αT ] = α[T ]. Proposición 6.16. Sean T : V → W y L : U → V transformaciones lineales. Entonces (T ◦ L) : U → W dada por (T ◦ L)(u) = T (L(u)) es una transformación lineal, y [T ◦ L] = [T ] · [L]. 38 CAPÍTULO 6. TRANSFORMACIONES LINEALES Caṕıtulo 7 Valores y vectores propios Definición 7.1. Sea A de n × n, v ̸= 0⃗ es un vector propio de A si existe λ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado a v. Proposición 7.2. Sea A de n×n. λ es valor propio de A si y sólo si |A−λI| = 0. Definición 7.3. Sea A de n×n. El polinomio caracteŕıstico de A es pA(x) = |xI − A|. Proposición 7.4. Sea A de n × n. λ es valor propio de A si y sólo si λ es ráız de pA(x). La multiplicidad algebraica de λ es la multiplicidad como ráız de pA(x). (m.a.) Observación 7.5. Sea A de n×n. Si v1 y v2 son vectores propios asociados al valor propio λ, y α ∈ R, entonces αv1 y v1 + v2 son vectores propios asociados a λ. Proposición 7.6. Sea A de n × n y λ un valor propio de A. Eλ = {v ∈ Rn : Av = λv} es el espacio propio asociado a λ. La dimensión de Eλ es la multiplicidad geométrica de λ.(m.g.). Eλ = Ker(A− λI). Teorema 7.7. Sea A de n × n y λ un valor propio de A. Entonces la m.g. de λ es menor o igual a la m.a. de λ. Proposición 7.8. Sea A de n× n. Entonces A tiene a lo más n valores propios. 39 40 CAPÍTULO 7. VALORES Y VECTORES PROPIOS Si A es diagonal, entonces los valores propios de A son los elementos de su diagonal. Si A es triangular superior o inferior, entonces los valores propios de A son los elementos de su diagonal. A es no invertible si y sólo si 0 es valor propio de A. Si λ es valor propio de A, entonces λm es valor propio de Am, para m ∈ N. Si λ es valor propio de A y A es invertible, entonces λ−1 es valor propio de A−1. Si λ1 y λ2 son dos valores propios distintos de A, entonces Eλ1 ∩Eλ2 = {⃗0}. Observación 7.9. Considerando |xI − A| = cnxn + . . . + c1x + c0 = (x − z1) . . . (x− zn) y tomando igualdad en los coeficientes c0 y cn−1 se tiene: La traza de A es la suma de sus valores propios. El determinante de A es el producto de sus valores propios. Definición 7.10. Dado un polinomio q(x) = a0 + a1x + . . . + amx m y A matriz cuadrada, se define a q(A) como la matriz a0I + a1A+ . . .+ amA m. Observación 7.11. Dado un polinomio q(x) = a0 + a1x + . . . + amx m y D matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se forma con los elementos de la diagonal de D evaluados en q(x). Teorema 7.12. Sea A matriz cuadrada. Entonces pA(A) es la matriz nula. Definición 7.13. Sea T : V → V una transformación lineal. v ̸= 0⃗ es un vector propio de T si existe λ ∈ R tal que T (v) = λv. Se dice que λ es el valor propio de T asociado a v. Definición 7.14. Dos matrices cuadradas A y B se dicen similares si existe una matriz L invertible tal que L−1AL = B. Proposición 7.15. Si A y B son similares, entonces tienen los mismos valores propios (tienen el mismo polinomio caracteŕıstico). Si L es tal que L−1AL = B y v es vector propio de B asociado a λ, entonces Lv es vector propio de A asociado a λ. 41 Definición 7.16. Una matriz cuadrada A (o transformación lineal T ) es diagonalizable si y sólo si es similar a una matriz diagonal. Proposición 7.17. Si A y B son similares, entonces A es diagonalizable si y sólo si B es diagonalizable. Teorema 7.18. A es diagonalizable si y sólo si existen n vectores propios L.I. de A. Corolario 7.19. Si A tiene n valores propios distintos, entonces A es diag- onalizable. Observación 7.20. Si A es diagonalizable, entonces Am es diagonalizable, para todo m ∈ N. Observación 7.21. Si A es tal que Au = λu, entonces Aku = λku. Luego ĺım k→∞ Aku = ( ĺım k→∞ λk ) u. Observación 7.22. Si Av = λv, entonces ĺım k→∞ Akv = 0 si |λ| < 1, v si λ = 1, no existe si |λ| > 1. Observación 7.23. Sea A es diagonalizable y q(x) un polinomio. Entonces A = L d1 0 . . . 0 0 d2 0 . . . 0 0 . . . dn L−1 → q(A) = L q(d1) 0 . . . 0 0 q(d2) 0 . . . 0 0 . . . q(dn) L−1 A = L d1 0 . . . 0 0 d2 0 . . . 0 0 . . . dn L−1 → eA = L ed1 0 . . . 0 0 ed2 0 . . . 0 0 . . . edn L−1 42 CAPÍTULO 7. VALORES Y VECTORES PROPIOS Caṕıtulo 8 Ortogonalidad Definición 8.1. Sea V un espacio vectorial sobre R. V se dice que es un espacio vectorial con producto interno si existe una función · de V × V en R tal que para todo u, v ∈ V , y α ∈ R u · v = v · u u · (v + w) = u · v + u · w (αu) · v = α(u · v) u · u > 0 y u · u = 0 si y sólo si u = 0⃗. Definición 8.2. Sea V un espacio vectorial sobre R con producto interno. Dados u, v ∈ V , u es ortogonal a v si u · v = 0. Notación: u ⊥ v. {u1, . . . , um} ⊂ V es ortogonal si el conjunto no contiene a 0⃗ y ui ·uj = 0 para todo i ̸= j {u1, . . . , um} ⊂ V es ortonormal si el conjunto es ortogonal y ui · ui = 1, ∀i. Observación 8.3. En adelante se considera al espacio vectorial Rn sobre R, con el producto punto usual. Observación 8.4. u ⊥ 0⃗, para todo u ∈ Rn. 43 44 CAPÍTULO 8. ORTOGONALIDAD Observación 8.5. Sea {u1, . . . , um} ortogonal y u = α1u1 + . . . + αmum, entonces αi = u · ui ui · ui Observación 8.6. Todo conjunto ortogonal es L.I., y por lo tanto una base de su conjunto generado. Definición 8.7. Dado U ≤ Rn, el ortogonal a U es U⊥ = {w ∈ Rn : u ·w = 0}. Proposición 8.8. Sea Rn con el producto punto usual. Si {u1, . . . , um} es una base de U , entonces U⊥ = {w ∈ Rn : ui · w = 0 para i = 1, . . . ,m}. 0⃗ ∈ U⊥ U⊥ es un subespacio de Rn. {⃗0}⊥ = Rn. Rn⊥ = {⃗0}. U⊥ ⊥ = U U ∩ U⊥ = {⃗0}. Sea {u1, . . . , um} una base de U y A de n×m la matriz A = [u1 . . . um]. Entonces U⊥ = Ker(At). U ⊕ U⊥ = Rn. Dado v ∈ Rn, existen únicos u ∈ U y w ∈ U⊥ tal que v = u+ w. Proposición 8.9. Sea S = {u1, . . . , um} un conjunto de vectores en Rn y A de n×m la matriz A = [u1 . . . um]. Entonces S es LI si y sólo si AtA es positiva definida. S es ortogonal si y sólo si AtA es diagonal y positiva definida. S es ortonormal si y sólo si AtA = I. 45 Definición 8.10. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U y w ∈ U⊥ donde v = u+ w. La proyección ortogonal sobre U es P : Rn → Rn, tal que P (v) = u. La proyección ortogonal sobre U⊥ es Q : Rn → Rn, tal que Q(v) = w. Proposición 8.11. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U y w ∈ U⊥ donde v = u+ w. Si {u1, . . . , um} es una base de U y A de n × m es la matriz A = [u1 . . . um], entonces u = Ax, donde x es tal que A tAx = Atv. Si {w1, . . . , wr} es una base de U⊥ y B de n × r es la matriz B = [w1 . . . wr], entonces w = By, donde y es tal que B tBy = Btv. Proposición 8.12. Sea U subespacio de Rn, P la proyección ortogonal sobre U y Q la proyección ortogonal sobre U⊥. Entonces P y Q son transformaciones lineales. P +Q = I (como t.l.). Ker(P ) = U⊥, Im(P ) = U . Ker(Q) = U , Im(Q) =U⊥. P 2 = P y Q2 = Q (como t.l.). Si {u1, . . . , um} es una base de U y A de n × m es la matriz A = [u1 . . . um], entonces la matriz de P con respecto a la base canónica es P = A(AtA)−1At. Si {w1, . . . , wr} es una base de U⊥ y B de n × r es la matriz B = [w1 . . . wr], entonces la matriz de Q con respecto a la base canónica es Q = B(BtB)−1Bt. P y Q son simétricas. P 2 = P y Q2 = Q (como matrices). P +Q = I (como matrices). 2P − I = R es matriz de reflexión, es simétrica y R2 = I. 46 CAPÍTULO 8. ORTOGONALIDAD P , Q y R son diagonalizables. Para P : E1 = U y E0 = U ⊥. Para Q: E1 = U ⊥ y E0 = U . Para R: E1 = U y E−1 = U ⊥. Proposición 8.13. Gram Schmidt: Dado S = {v1, . . . , vm} L.I., una base ortogonal de < S > es {u1, . . . , um}, donde: u1 = v1 u2 = v2 − v2 · u1 u1 · u1 u1 u3 = v3 − v3 · u1 u1 · u1 u1 − v3 · u2 u2 · u2 u2 . . .. Observación 8.14. Descomposición QR. Sea A = [v1 · · · vm] una matriz con columnas L.I. El problema es encontrar una matriz cuyas columnas formen un conjunto ortonormal que genere lo mismo que las columnas de A, es decir se busca una matriz Q tal que: Q = [u1 · · ·um], Im(Q) = Im(A) y QtQ = I. Sea R la matriz cambio de base de m×m, es decir A = QR. Entonces AtA = (QR)tQR = RtQtQR = RtIR = RtR. Dado que A es inyectiva, luego AtA es positiva definida y basta tomar su descomposición con ráız cuadrada R. Obteniendo R se calcula Q = AR−1. Ejemplo 8.15. Sea U =< 101 1 , 102 0 , −103 1 >. Determine una base ortonormal de U . Solución: Sea A = 1 1 −10 0 01 2 3 1 0 1 . Entonces 47 AtA = [ 3 3 3 3 5 5 3 5 11 ] = [ √ 3 0 0√ 3 √ 2 0√ 3 √ 2 √ 6 ] [ √ 3 √ 3 √ 3 0 √ 2 √ 2 0 0 √ 6 ] = RtR Luego R−1 = [ 1/ √ 3 −1/ √ 2 0 0 1/ √ 2 −1/ √ 6 0 0 1/ √ 6 ] . Entonces Q = 1 √ 3 0 −2 √ 6 0 0 0 1 √ 3 1 √ 2 1 √ 6 1 √ 3 −1 √ 2 1 √ 6 . Entonces U =< 1 √ 3 0 1 √ 3 1 √ 3 , 001√2 −1 √ 2 , −2 √ 6 0 1 √ 6 1 √ 6 > Proposición 8.16. Sea el sistema Ax = b inconsistente y x∗ tal que ∥Ax∗−b∥ es mı́nima. Entonces x∗ es tal que Ax∗ es la proyección de b sobre Im(A). 48 CAPÍTULO 8. ORTOGONALIDAD Caṕıtulo 9 Matrices Simétricas Definición 9.1. U de n× n es ortogonal si U tU = I. Teorema 9.2. Sea P de n × n. Entonces las siguientes proposiciones son equivalentes: U es ortogonal. ∥Ux∥ = ∥x∥, para todo x ∈ Rn. Ux · Uy = x · y, para todo x, y ∈ Rn. Si {v1, . . . , vm} es ortonormal, entonces {Uv1, . . . , Uvm} es ortonormal. Proposición 9.3. Sea A simétrica. Entonces A tiene sólo valores propios reales. Si λ1 y λ2 son dos valores propios distintos de A tal que v1 ∈ Eλ1 y v2 ∈ Eλ2 , entonces v1 · v2 = 0. Definición 9.4. Una matriz A se dice ortogonalmente diagonalizable si ex- iste U ortogonal y D diagonal, tal que U tAU = D. Teorema 9.5. A es simétrica si y sólo si A es ortogonalmente diagonalizable. Corolario 9.6. A simétrica es positiva definida si y sólo si todos sus valores propios son positivos. 49 50 CAPÍTULO 9. MATRICES SIMÉTRICAS Definición 9.7. Si A es simétrica y v1, . . . , vn son vectores propios (ortonor- males) asociados a los valores propios λ1, . . . , λn, entonces la descomposición espectral de A es: A = λ1v1v t 1 + . . .+ λnvnv t n. Observación 9.8. Si A es de n×m, se tiene que 1. Ker(AtA) = Ker(A). 2. Im(AtA) = Im(At). Teorema 9.9. Sea A de n×m. Entonces existen U de m×m y V de n× n matrices ortogonales tal que V tAU = s1 0 . . . 0 sr 0 n×m Observación 9.10. ¿Cómo obtener U? La matriz AtA es simétrica y semi definida positiva. Entonces existe U de m×m matriz ortogonal tal que U tAtAU = d1 . . . dr 0 . . . 0 n×m con d1 ≥ d2 ≥ · · · ≥ dr > 0. Sea U1 matriz de m× r que contiene vectores propios de valores propios no nulos y U2 matriz de m× (m− r) que contiene los vectores propios del valor propio 0. Entonces se tiene que: U = [U1 U2]. Los vectores columna de U1 forman una base de Im(A tA) = Im(At). Los vectores columna de U2 forman una base de Ker(A tA) = Ker(A). 51 (AU1) t(AU1) = D = d1 . . . dr n×m Observación 9.11. ¿Cómo obtener V ? Sea V1 de n× r la matriz V1 = AU1 √ D −1 . Sea V2 de n×(n−r) la matriz cuyas columnas completan una base ortogonal con las columnas de V1. Entonces se considera V = [V1 V2].
Compartir