Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Álgebra Lineal Carolina B. Becerra O. Agosto 2018 Índice general 1. Vectores en Rn 5 2. Sistema de ecuaciones 13 3. Álgebra de Matrices 19 4. Bases 23 5. Transformaciones lineales 25 6. Determinantes 29 7. Valores y vectores propios 33 3 Caṕıtulo 1 Vectores en Rn Definición 1.1. El conjunto de n tuplas ordenadas de números reales se denota por Rn y a sus elementos se les llama vectores. Rn = v = x1... xn tal que x1, . . . , xn ∈ R A x1, . . . , xn se les llama componentes o coordenadas del vector v. Al vector cuyas componentes son todas 0 se le llama vector nulo y se denota por −→ 0 . Definición 1.2. Vectores canónicos: ei = 0 ... 0 1 0 ... 0 ← i , para i = 1, . . . , n Ejemplo 1.3. Observar que importa el orden: 2−51/2 −π ̸= −521/2 −π ∈ R4. Observar que la notación coincide: 5 0⃗ = 000 0 ∈ R4, 0⃗ = [ 00 0 ] ∈ R3. e3 = 001 0 ∈ R4, e3 = [ 00 1 ] ∈ R3. Definición 1.4. Dados u, v ∈ Rn la suma de u y v, denotada por u+ v es el vector cuyas componentes son la suma de las respectivas componentes de u y v. Dado α ∈ R, la ponderación de u por el escalar α ∈ R es el vector cuyas componentes son el producto de α por las respectivas componentes de u. Es decir: Si u = x1... xn , v = y1... yn , entonces u+ v = x1 + y1... xn + yn , αu = αx1... αxn . Ejemplo 1.5. 3 2−51 −1 + 2e3 − 4 201 −1/2 = −2−191 −1 . Proposición 1.6. Sean u, v, w ∈ Rn y α, β ∈ R. Entonces las operaciones anteriores satisfacen: u+ v ∈ Rn. (u+ v) + w = u+ (v + w). u+ v = v + u. u+ −→ 0 = u. u+ (−u) = −→0 . αu ∈ Rn. α(u+ v) = αu+ αv. (α+ β)u = αu+ βu. (COMENTAR DIFERENCIA DE SIGNOS) α(βu) = (αβ)u. 1 u = u. Observación 1.7. Sea α ∈ R y u ∈ Rn. αu = 0⃗ si y sólo si α = 0 o u = 0⃗. Demostración: Sea α ∈ R y u ∈ Rn. Si αu = 0⃗ y α ̸= 0, se multiplica por 1/α y queda (1/α)αu = (1/α)⃗0 = 0⃗, es decir u = 0⃗. � Definición 1.8. Sea {v1, . . . , vm} ⊆ Rn. Una combinación lineal de los vec- tores v1, . . . , vm es el vector α1v1 + . . .+ αmvm, donde αi ∈ R, para algunos α1, . . . , αm ∈ R. Ejemplo 1.9. 3 2−51 −1 + 2e3 − 4 201 −1/2 = −2−191 −1 . Definición 1.10. Sea S ⊆ Rn. El conjunto generado por S, denotado por GenS es el conjunto de todas las combinaciones lineales de vectores de S. Ejemplo 1.11. El vector −3−15 −6 pertenece al conjunto generado por −201 −1 , 1−13 −4 . Ejemplo 1.12. Gen{e1, . . . en} = Rn. Proposición 1.13. Sean S, S1, S2 ⊆ Rn. Entonces Genϕ = Gen{−→0 } = {−→0 }. −→ 0 ∈ GenS. GenS es cerrado bajo la suma y multiplicación por escalar. S ⊂ GenS. S1 ⊂ S2 → GenS1 ⊂ GenS2. Demostración: Algunas demostraciones: −→ 0 ∈ GenS, 0⃗ = 0v1 + 0v2 + · · ·+ 0vm. S ⊂ GenS, v1 = 1 v1 + 0v2 + · · ·+ 0vm. Gen{v1, v2} ⊂ Gen{v1, v2, v3}, α1v1 + α2v2 = α1v1 + α2v2 + 0v3. � Teorema 1.14. Sea S = {v1, v2, . . . , vm} ⊆ Rn. Si v1 es combinación lineal de v2, . . . , vm, entonces Gen{v1, v2, . . . , vm} = Gen{v2, . . . , vm} Demostración: (COMENTAR CONTENCIÓN DE CONJUNTOS) Si v1 = 5v2 + 7v3, entonces β1v1 + β2v2 + β3v3 = β1(5v2 + 7v3) + β2v2 + β3v3 = (5β1 + β2)v2 + (7β1 + β3)v3. � Definición 1.15. Sea S = {v1, v2, . . . , vm} ⊆ Rn. S es linealmente dependiente (LD) si existen escalares α1, . . . , αm no todos nulos tal que α1v1 + . . . + αmvm = −→ 0 . (se puede construir al vector cero de manera no trivial). S es linealmente independiente (LI) si no es LD, es decir si para cualquier combinación lineal α1v1 + . . . + αmvm = −→ 0 , se tiene nece- sariamente que α1 = . . . = αm = 0. (la única manera de construir al vector cero es la trivial). Ejemplo 1.16. El conjunto −3−15 −6 , −3−15 0 es L.I. El conjunto {[ −3 6 ] , [ −1 2 ]} es L.D. El conjunto {[ −3 6 ] , [ −1 2 ] , [ −5 10 ]} es L.D. El conjunto {[ −3 6 ] , [ −1 2 ] , [ 1 0 ]} es L.D. El conjunto {[ −3 6 ] , [ −1 2 ] , [ 1 0 ] , [ 2 0 ]} es L.D. El conjunto {e1, . . . en} es L.I. Observación 1.17. Si 0⃗ ∈ S ⊆ Rn, entonces S es LD. Proposición 1.18. Sea S ⊆ Rn, con S finito. Entonces S es LD si y sólo si existe un vector de S que es combinación lineal del resto de los vectores de S. S es LI si y sólo si todo subconjunto de S es LI. Definición 1.19. Recta en R2. Sea d ∈ R2 no nulo, L = {x ∈ R2 tal que x = u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen. Definición 1.20. Recta en R3. Sea d ∈ R3 no nulo, L = {x ∈ R3 tal que x = u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen. Definición 1.21. Plano en R3. Sea d1, d2 ∈ R3 L.I, Π = {x ∈ R3 tal que x = u+ αd1 + βd2, α, β ∈ R}. Si u = 0⃗ se dice que Π pasa por el origen. Ejemplo 1.22. En R4 seaH = {x ∈ R4 : x1+x2−2x3−x4 = 0 tal que x1, x2, x3, x4 ∈ R}. x ∈ H ↔ x = x1x2x3 x1 + x2 − 2x3 para x1, x2, x3 ∈ R. x ∈ H ↔ x = x1 100 1 + x2 010 1 + x3 001 −2 para x1, x2, x3 ∈ R. Por lo tanto H = Gen 100 1 , 010 1 , 001 −2 . Definición 1.23. Sean u, v ∈ Rn, el producto punto de u y v, denotado por u · v, es la suma de los respectivos productos entre coordenadas. Es decir Si u = x1... xn , v = y1... yn , entonces u · v = x1y1 + . . .+ xnyn = n∑ i=1 xiyi. Proposición 1.24. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto punto satisface: u · v ∈ R. u · 0⃗ = 0⃗. u · v = v · u. u · (v + w) = u · v + u · w. α(u · v) = (αu) · v. u · u ≥ 0 y u · u = 0↔ u = 0⃗. Ejemplo 1.25. ei · ej = { 1 si i = j 0 si i ̸= j. para todo i, j = 1, . . . , n. Definición 1.26. Norma de un vector: Dado u = x1... xn ∈ Rn, ∥u∥ = √ n∑ i=1 xi 2 = √ u · u. Definición 1.27. Vector unitario: vector que tiene norma 1. Definición 1.28. Distancia entre vectores: d(u, v) = ∥u− v∥. Ejemplo 1.29. ∥ei∥ = 1 para todo i = 1 . . . n. d(ei, ej) = { 0 si i = j√ 2 si i ̸= j. para todo i, j = 1, . . . , n. Proposición 1.30. Sean α ∈ R y u, v ∈ Rn. Entonces ∥αu∥ = |α|∥u∥. ∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v. |u · v| ≤ ∥u∥∥v∥. ∥u+ v∥ ≤ ∥u∥+ ∥v∥. Demostración: ∥αu∥ = |α|∥u∥. Si u = x1... xn , entonces αu = αx1... αxn . Luego ∥αu∥ = √ n∑ i=1 αxi 2 = |α| √ n∑ i=1 xi 2 = |α|∥u∥. ∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v. Usando las propiedades del producto punto se tiene que: ∥u+v∥2 = (u+v)·(u+v) = u·u+u·v+v ·u+v ·v = ∥u∥2+∥v∥2+2u·v. � Definición 1.31. En Rn Dados u, v ∈ Rn, u es ortogonal a v si u · v = 0. Notación: u ⊥ v. {u1, . . . , um} ⊂ Rn es ortogonal si el conjunto no contiene a 0⃗ y ui ·uj = 0 para todo i ̸= j {u1, . . . , um} ⊂ Rn es ortonormal si el conjunto es ortogonal y ui · ui = 1, ∀i. Observación 1.32. Todo conjunto ortonormal es ortogonal y todo conjutno ortogonal es L.I. Proposición 1.33. Gram Schmidt: Dado S = {v1, . . . , vm} L.I., un conjunto ortogonal que genere a GenS es {u1, . . . , um}, donde: u1 = v1 u2 = v2 − v2 · u1 u1 · u1 u1 u3 = v3 − v3 · u1 u1 · u1 u1 − v3 · u2 u2 · u2 u2 . . .. Caṕıtulo 2 Sistema de ecuaciones Definición 2.1. Una matriz es un arreglo ordenado de m vectores de Rn. Notación: A = [v1 v2 . . . vm]. Se dice que A es una matriz de n×m, donde m es el número de columnas y n es el número de filas. Si vj = a1,j... an,j para j = 1, . . . ,m, entonces A = (ai,j), donde ai,j son los coeficientes o entradas de la matriz. Definición 2.2. Matriz nula es tal que todos sus coeficientes son 0. Matriz cuadrada es tal que n = m. A es triangular superior si es cuadrada y ai,j = 0 para todo i > j. A es triangular inferior si es cuadrada y ai,j = 0 para todo i < j. A es diagonal si es cuadrada y ai,j = 0 para todo i ̸= j. Definición 2.3. Matriz identidad es una matriz cuadrada denotada por I tal que I = [e1 . . . en]. Definición 2.4. Dada A = [v1 v2 . . . vm] de n×m y x = x1... xm ∈ Rm, el producto de A por x es Ax = x1v1 + x2v2 + . . .+ xmvm ∈ Rn. Proposición 2.5. Sea A de n×m, x, y ∈ Rm y α ∈ R. Entonces13 A(x+ y) = Ax+ Ay. A(αx) = αAx. A0⃗ = 0⃗. Observación 2.6. Todo sistema de ecuaciones lineales se puede escribir de la forma matricial Ax = b. Por ejemplo: 2x1 − x2 + 7x3 = 4 3x1 − 8x3 = 1 ↔ [ 2x1 − x2 + 7x3 3x1 − 8x3 ] = [ 4 1 ] ↔ x1 [ 2 3 ] + x2 [ −1 0 ] + x3 [ 7 −8 ] = [ 4 1 ] ↔ [ 2 −1 7 3 0 −8 ] x1x2 x3 = [ 4 1 ] Definición 2.7. Un sistema de ecuaciones Ax = b es tal que A es una matriz de n×m asociada al sistema, b ∈ Rn y x ∈ Rm. [A b] es la matriz ampliada del sistema. El sistema es homogéneo si b = −→ 0 y no homogéneo si b ̸= −→0 . El sistema es consistente si tiene solución e inconsistente si no tiene solución. Definición 2.8. Una matriz se dice que está en la forma escalonada (F.E.) si: 1. a1,1 ̸= 0. 2. Si el pivote de la fila i está en la columna j, entonces el pivote de la fila i+ 1 está en la columna k, tal que j < k. (Pivote: primer elemento distinto de 0 de la fila). 3. Las filas nulas están al final de la matriz. Definición 2.9. Una matriz se dice que está en la forma escalonada reducida (F.E.R.) si: 1. Está es la F.E. 2. Todos los pivotes son iguales a 1. 3. Los vectores columna que contienen pivotes son canónicos. Definición 2.10. Dada una matriz, las operaciones fila son: 1. Tipo I: Intercambiar dos filas: Fi ↔ Fj. 2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi → λFi. 3. Tipo III: (pivotear) Sumar a una fila, un múltiplo escalar de otra: Fi → Fi + λFj. Observación 2.11. Para solucionar un sistema de ecuaciones se lleva la matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema es consistente, a las variables que quedan en posiciones no pivotes se les llama variables libres. Observación 2.12. Lo anterior funciona pues si [A|b] ∼ [A′|b′], entonces Ax = b↔ A′x = b′. Teorema 2.13. Sea el sistema de ecuaciones Ax = b con A de n×m, y M la F.E.R. de la matriz M = [A b]. Para b ̸= 0⃗, el sistema es inconsistente si y sólo si M tiene una fila de la forma [0 . . . 0 c] con c ̸= 0, es consistente y tiene solución única si y sólo si M tiene m pivotes, es consistente y tiene infinitas soluciones si y sólo si M tiene menos de m pivotes (hay variables libres). Para b = −→ 0 el sistema es consistente ( −→ 0 es solución) y tiene solución única si y sólo si F.E. de A tiene m pivotes, tiene infinitas soluciones si y sólo si F.E. de A tiene menos de m pivotes (hay variables libres). Ejemplo 2.14. Se observan los siguientes ejemplos de F.E.R. de sistemas:[ 1 0 2 0 1 3 ] [ 1 0 2 0 0 0 ] [ 1 0 1 0 0 1 ] 1 0 20 1 3 0 0 0 1 0 20 0 0 0 0 0 1 0 10 0 1 0 0 0 [ 1 0 0 2 0 1 0 3 ] [ 1 0 0 1 0 0 0 1 ] [ 1 0 0 0 1 0 ] [ 1 0 0 0 0 0 ] 1 0 00 1 0 0 0 0 1 0 00 0 0 0 0 0 [ 1 0 0 0 0 1 0 0 ] Definición 2.15. Rango de un sistema o de una matriz: número de pivotes de la forma escalonada de la matriz asociada del sistema. Proposición 2.16. Sea S = {v1, . . . , vm} ⊂ Rn y A = [v1 . . . vm]. S es L.I. si y sólo si el sistema Ax = 0⃗ tiene solución única. Proposición 2.17. Sea S = {v1, . . . , vm} ⊂ Rn y A una matriz cuyas filas son los vectores del conjunto S. S es L.I. si y sólo si la F.E. de la matriz A no tiene filas nulas. Teorema 2.18. Sea v1, . . . , vm un conjunto de vectores de Rn. Si m > n, entonces v1, . . . , vm es L.D. Observación 2.19. Sea S = {v1, . . . , vm} ⊂ Rn, A = [v1 . . . vm] y b ∈ Rn. Entonces b ∈ Gen{v1, . . . , vm} si y sólo si el sistema Ax = b es consistente. Observación 2.20. Sea A de n × m y b1, . . . br ∈ Rn, para resolver Ax = b1, Ax = b2, . . . , Ax = br se escalona una única matriz [A b1 b2 . . . br] y se interpreta la solución para cada sistema por separado. Caṕıtulo 3 Álgebra de Matrices Definición 3.1. Mn,m(R) es el conjunto de todas las matrices de n×m con coeficientes reales. Definición 3.2. Sean A = [v1 . . . vm] , B = [u1 . . . um] ∈Mn,m(R) y α ∈ R. La operaciones suma y multiplicación por escalar de matrices se definen por A+B = [v1 + u1 . . . vm + um] , αA = [αv1 . . . αvm]. Proposición 3.3. Sean A,B,C ∈Mn,m(R) y α, β ∈ R. Entonces A+B ∈Mn,m(R). (A+B) + C = A+ (B + C). A+B = B + A. A+ 0 = A. A+ (−A) = 0. αA ∈Mn,m(R). α(A+B) = αA+ αB. (α + β)A = αA+ βA. (COMENTAR DIFERENCIA DE SIGNOS) α(βA) = (αβ)A. 1 A = A. 19 Definición 3.4. Sea A de n×m y B de m× p, tal que B = [u1 . . . up], el producto de A por B es la matriz A ·B = [A · u1 . . . A · up] de n× p. Proposición 3.5. Sean A,B,C matrices tal que las siguientes operaciones están bien definidas y α ∈ R. Entonces A(BC) = (AB)C. α(AB) = (αA)B = A(αB). A(B + C) = AB + AC. (A+B)C = AC +BC. IA = AI = A. 0A = A0 = 0. Observación 3.6. En general el producto de matrices no es conmutativo. A = [ 0 1 0 0 ] , B = [ 1 0 0 0 ] y AB = [ 0 0 0 0 ] ̸= [ 0 1 0 0 ] = BA. Definición 3.7. Sea A de n ×m, la trasnpuesta de A denotada por At es de m × n y es la matriz que resulta de intercambiar las filas de A por las columnas de la A. Ejemplo 3.8. Si A = [ 0 1 2 3 4 −1 ] , entonces At = [ 0 2 4 1 3 −1 ] . Proposición 3.9. SeanA,B matrices tal que las siguientes operaciones están bien definidas y α ∈ R. Entonces (At)t = A. α(At) = (αA)t. (A+B)t = At +Bt. (AB)t = BtAt. Definición 3.10. Sea A = (ai,j) de n× n. A es simétrica si A = At. A es antisimétrica si A = −At. Definición 3.11. A de n × n se dice invertible si existe una matriz B de n× n tal que AB = BA = I. Observación 3.12. Si A es invertible, entonces existe C tal que CA = I. (Se demuestra que B=C y que es única). Teorema 3.13. Sea A una matriz de n× n. Entonces A es invertible. ↔ Existen u1, . . . , un tal que A[u1 . . . un] = [e1 . . . en]. ↔ Ax = ei es consistente para todo vector canónico. ↔ Filas de A son L.I. ↔ Rango de A es n. ↔ Ax = 0⃗ tiene solución única. ↔ Columnas de A son L.I. ↔ F.E.R de A es la matriz identidad (MÉTODO) Proposición 3.14. Sean A y B de n× n. Entonces A es invertible si y sólo si Ax = b tiene solución única para todo b ∈ Rn. Si A es invertible, entonces (A−1)−1 = A. A es invertible si y sólo si At es invertible. En este caso (At)−1 = (A−1)t. Si A es invertible y α ̸= 0, entonces αA es invertible y (αA)−1 = 1 α A−1. Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene (Ar)−1 = (A−1)r = A−r. SiA yB son invertibles, entoncesAB es invertible y (AB)−1 = B−1A−1. Observación 3.15. Sean A1, . . . , Ak matrices cuadradas e invertibles. En- tonces (A1 · . . . · Ak)−1 = (Ak)−1 · . . . · (A1)−1. Proposición 3.16. Sean A,B,C,D matrices tal que las siguientes operacio- nes están bien definidas. Entonces Si A es invertible y AB = AC, entonces B = C. Si A es invertible y BA = CA, entonces B = C. Si A es invertible y AB = BA, entonces BA−1 = A−1B. Si A es invertible, puede ocurrir que A−1BA ̸= B. Si A y B son invertibles, y ACB = D, entonces C = A−1DB−1. Observación 3.17. Una matriz diagonal es invertible si y sólo si todos los elementos de su diagonal son no nulos. Observación 3.18. Una matriz triangular superior (o inferior) es invertible si y sólo si todos los elementos de su diagonal son no nulos. Ejemplo 3.19. Productos notables. utu y uut. La triangularidad se mantiene al tomar inversas. Caṕıtulo 4 Bases Observación 4.1. Rn es un espacio vectorial sobre R, los conjuntos genera- dos se dicen subespacios de Rn. Definición 4.2. B ⊂ Rn es una base de Rn si B es LI y < B >= V . B ⊂ Rn es una base de un conjunto generado U si B es LI y genera a U . Teorema 4.3. Si B es una base de Rn y la cardinalidad de B es n, entonces todas las bases de Rn tienen n elementos. Se dice que la dimensión de Rn es n. Notación: Dim(Rn) = n. Definición 4.4. Sea B = {v1, . . . , vn} una base de Rn y v ∈ Rn tal que v = x1v1 + . . . xnvn. El vector coordenado de x en la base B es: [v]B = x1... xn Proposición 4.5. Sean u, v ∈ Rn y B una base de Rn. Entonces [u+ v] = [u] + [v]. [αu] =α[u]. {u1, . . . , um} es L.I. si y sólo si {[u1], . . . , [um]} es L.I. u ∈ Gen{u1, . . . , um} si y sólo si [u] ∈ Gen{[u1], . . . , [um]}. Definición 4.6. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de Rn. Se define la matriz P = [ [v1]2 . . . [vn]2 ]. 23 Proposición 4.7. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V . Para todo x ∈ V : P · [x]1 = [x]2. P es invertible. Si ara todo x ∈ V : P · [x]1 = [x]2, entonces P−1 · [x]2 = [x]1 Caṕıtulo 5 Transformaciones lineales Definición 5.1. T : Rm → Rn es una transformación lineal si T (v1 + v2) = T (v1) + T (v2) y T (αv) = αT (v). Observación 5.2. Si B es una base de Rm, entonces T queda determinada por cómo actúa sobre la base. Proposición 5.3. Sean T : Rm → Rn una transformación lineal. Entonces existe una matriz A de n ×m tal que T (v) = Av. (Es decir, toda transfor- mación lineal tiene esta forma, en adelante se hablará de una transformación lineal o de una matriz indistintamente). Definición 5.4. Sea A de n×m. Ker(A) = {x ∈ Rm : Ax = −→0 }. Es el conjunto de pre-imágenes del vector cero. Es el conjunto solución del sistema homogéneo asociado a la matriz A. Es un subconjunto de Rm. Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la función dada por la matriz A. Es el conjunto de todos los vectores b tal que el sistema Ax = b es consitente. Es el conjunto generado por las columnas de la matriz A. Es un subconjunto de Rn. C(A) es el conjunto generado por las columnas de la matriz A. Es el recorrido de la función dada por la matriz A. Es el conjunto de todos los vectores b tal que el sistema Ax = b es consistente. Es un subconjunto de Rn. (Está generado por las columnas de la matriz que en su forma escalonada están en las posiciones pivotes). 25 F (A) es el conjunto generado por las filas de la matriz A. Es un sub- conjunto de Rm. (Está generado por las filas no nulas de la forma escalonada de la matriz). Observación 5.5. Im(A) = C(A) = F (At). Proposición 5.6. Sea A de n×m. Entonces C(A) es un subespacio de Rn de dimensión igual al rango de A. F (A) es un subespacio de Rm de dimensión igual al rango de A. At es de m× n, F (At) = C(A) y C(At) = F (A). Teorema 5.7. Sea A de n×m. Entonces A es 1-1 (inyectiva) si y sólo si Ker(A) = {−→0 }. A es sobreyectiva si y sólo si Im(A) = Rn. Teorema 5.8. Sea A de n×m. Entonces Filas de A son L.D. ↔ Existe una fila que es combinación lineal del resto. ↔ fn = α1f1 + . . .+ αn−1fn−1 (sin perder generalidad) ↔ La FER de A tiene por lo menos una fila nula (haciendo las operaciones del tipo III necesarias). Filas de A son L.I. ↔ La F.E.R. de A tiene no tiene filas nulas. ↔ Todas las filas de la F.E.R. de A contienen pivotes. ↔ Rango de A es n. A es 1-1 ↔ Ker(A) = {−→0 }. ↔ Ax = −→0 tiene solución única. ↔ Columnas de A son L.I. ↔ Rango de A es m. A es sobre ↔ Im(A) = Rn. ↔ Ax = b es consistente para todo b ∈ Rn. ↔ Ax = ei es consistente para todo vector canónico. ↔ La FER de [A e1 . . . en] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo. ↔ Filas de A son L.I. ↔ Rango de A es n. Observación 5.9. Si A es de n×m y B es de m× q, entonces AB define la transformación compuesta A ◦B. Observación 5.10. Si A es de n × n invertible, entonces A−1 define la transformación inversa. Teorema 5.11. Sea T : Rm → Rn una transformación lineal. Entonces Dim Ker(T ) + Dim Im(T ) = m. Ejemplo 5.12. Sea T : Rm → Rn una transformación lineal. Demuestre 1. Si T es inyectiva, entonces m ≤ n 2. Si T es sobreyectiva, entonces n ≤ m Caṕıtulo 6 Determinantes Definición 6.1. Determinante es una función: Det : Mn(R)→ R tal que: |I| = 1 Si B resulta de hacer una operación de tipo I sobre A, entonces −|A| = |B| Si B resulta de hacer una operación de tipo II sobre A, entonces α|A| = |B| Si B resulta de hacer una operación de tipo III sobre A, entonces |A| = |B| Observación 6.2. Si A = [ a b c d ] , entonces |A| = ad− bc Proposición 6.3. Sea A una matriz de cuadrada. Entonces Si A tiene dos filas iguales, entonces |A| = 0. Si A tiene una fila nula, entonces |A| = 0. Si A es triangular o diagonal, entonces |A| = Πai,i. Teorema 6.4. Sea A una matriz de cuadrada. Entonces A es invertible si y sólo si |A| ̸= 0. 29 Teorema 6.5. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|. (Usar: A y B son invertibles si y sólo si AB es invertible.) Proposición 6.6. Sea A una matriz de cuadrada. Entonces |At| = |A| Si A es invertible, entonces |A−1| = 1/|A| Definición 6.7. Menor i, j de una matriz A es el determinante de la matriz que resulta de eliminar de A la fila i y la columna j. Notación: Mi,j =. Cofactor i, j de una matriz A es Ci,j = (−1)i+j Mi,j Teorema 6.8. |A| = ai,1Ci,1 + . . . + ai,nCi,n para todo i = 1, . . . , n. (caso i = 1) Definición 6.9. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) = (ci,j) t. Teorema 6.10. Sea A una matriz de cuadrada. Entonces A · Adj(A) = Adj(A) · A = |A| I Proposición 6.11. Sea A una matriz de cuadrada. Si A es invertible, en- tonces A−1 = 1/|A| Adj(A) Ejemplo 6.12. 1. Sea A ∈ M4(R) tal que |A| = 5, encuentre |2A|, |4A|, |2kA|, |A5|, | − A|, |A−1|, ||A|A−1|, |A−3|, ||A|A| 2. Sea A de 5× 5 tal que Det(A− I) = 0. Demuestre que existe v ∈ R5 tal que Av = v. 3. Dé un ejemplo de matrices tal que |A+B| ̸= |A|+ |B|. 4. Sea a ∈ R, calcule el determinante de la siguiente matriz de n× n a 1 1 · · · 1 1 1 a 1 · · · 1 1 1 1 a · · · 1 1 ... . . . ... 1 1 1 · · · a 1 1 1 1 · · · 1 a Solución: Si a = 1, quedan todas las filas iguales y entonces el determinante es 0. Haciendo las operaciones: Fi → Fi−Fi+1, para i = 1, . . . , n− 1 queda: = ∣∣∣∣∣∣∣∣∣∣∣ a− 1 1− a 0 · · · 0 0 0 a− 1 1− a · · · 0 0 0 0 a− 1 · · · 0 0 ... . . . ... 0 0 0 · · · a− 1 1− a 1 1 1 · · · 1 a ∣∣∣∣∣∣∣∣∣∣∣ . Haciendo las operaciones: Fi → (1/(a − 1))Fi, para i = 1, . . . , n − 1 queda: = (a− 1)n−1 ∣∣∣∣∣∣∣∣∣∣∣ 1 −1 0 · · · 0 0 0 1 −1 · · · 0 0 0 0 1 · · · 0 0 ... . . . ... 0 0 0 · · · 1 −1 1 1 1 · · · 1 a ∣∣∣∣∣∣∣∣∣∣∣ . Haciendo las operaciones: Fn → Fn − F1, . . ., Fn → Fn − Fn−1 queda: = (a− 1)n−1 ∣∣∣∣∣∣∣∣∣∣∣ 1 −1 0 · · · 0 0 0 1 −1 · · · 0 0 0 0 1 · · · 0 0 ... . . . ... 0 0 0 · · · 1 −1 0 0 0 · · · 0 a+ n− 1 ∣∣∣∣∣∣∣∣∣∣∣ . Queda una matriz diagonal, entonces el determinante pedido es: (a− 1)n−1(a+ n− 1). Caṕıtulo 7 Valores y vectores propios Definición 7.1. Sea A de n × n, v ̸= 0⃗ es un vector propio de A si existe λ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado a v. Proposición 7.2. Sea A de n×n. λ es valor propio de A si y sólo si |A−λI| = 0. Definición 7.3. Sea A de n×n. El polinomio caracteŕıstico de A es pA(x) = |xI − A|. La ecuación caracteŕıstica de A es |A− xI| = 0. Proposición 7.4. Sea A de n×n. λ es valor propio de A si y sólo si λ es ráız de pA(x). La multiplicidad como ráız de pA(x) se dice que es la multiplicidad algebraica de λ es (m.a.) Observación 7.5. Sea A de n×n. Si v1 y v2 son vectores propios asociados al valor propio λ, y α ∈ R, entonces αv1 y v1 + v2 son vectores propios asociados a λ. Proposición 7.6. Sea A de n×n y λ un valor propio de A. Eλ = {v ∈ Rn : Av = λv} es el espacio propio asociado a λ. La dimensión de Eλ se dice que es la multiplicidad geométrica de λ.(m.g.). Eλ = Ker(A− λI). Teorema 7.7. Sea A de n × n y λ un valor propio de A. Entonces la m.g. de λ es menor o igual a la m.a. de λ. Proposición 7.8. Sea A de n× n. Entonces A tiene a lo más n valores propios. 33 Si A es diagonal, entonces los valores propios de A son los elementos de su diagonal. Si A es triangular superior o inferior, entonces los valores propios de A son los elementos de su diagonal. A es no invertible si y sólo si 0 es valor propio de A. Si λ es valor propio de A, entonces λm es valor propio de Am, para m ∈ N. Si λ es valor propio de A y A es invertible, entonces λ−1 es valor propio de A−1. Si λ1 y λ2 son dos valores propios distintos de A, entonces Eλ1∩Eλ2 = {⃗0}. Definición 7.9. Dado un polinomio q(x) = a0+a1x+ . . .+amx m y A matriz cuadrada, se define a q(A) como la matriz a0I + a1A+ . . .+ amA m. Observación 7.10. Dado un polinomio q(x) = a0 + a1x + . . . + amx m y D matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se forma con los elementos de la diagonal de D evaluados en q(x). Teorema 7.11. Sea A matriz cuadrada. Entonces pA(A) es la matriz nula. Definición 7.12. Dos matrices cuadradas A y B se dicen similares si existe una matriz L invertible tal que L−1AL = B. Proposición 7.13. Si A y B son similares, entonces tienen los mismos valores propios (tienen el mismo polinomio caracteŕıstico). Si L es tal que L−1AL = B y v es vector propio de B asociado a λ, entonces Lv es vector propio de A asociado a λ. Definición 7.14. Una matriz cuadrada A (o transformación lineal T ) es diagonalizable si y sólo si es similar a una matriz diagonal. Proposición 7.15. Si A y B son similares, entonces A es diagonalizable si y sólo si B es diagonalizable. Teorema 7.16. A es diagonalizable si y sólo si existen n vectores propios L.I. de A. Corolario 7.17. Si A tiene n valores propios distintos, entonces A es diago- nalizable. Observación 7.18. Si A es diagonalizable, entonces Am es diagonalizable, para todo m ∈ N. Observación 7.19. Si A es tal que Au = λu, entonces Aku = λku. Luego ĺım k→∞ Aku = ( ĺım k→∞ λk ) u. Observación 7.20. Si Av = λv, entonces ĺım k→∞ Akv = 0 si |λ| < 1, v si λ = 1, no existe si |λ| > 1. Observación 7.21. Sea A es diagonalizable y q(x) un polinomio. Entonces A = L d1 0 . . . 0 0 d2 0 . . . 0 0 . . . dn L−1 → q(A) = L q(d1) 0 . . . 0 0 q(d2) 0 . . . 0 0 . . . q(dn) L−1 Definición 7.22. U de n× n es ortogonal si U tU = I. Proposición 7.23. Sea A simétrica. Entonces A tiene sólo valores propios reales. Si λ1 y λ2 son dos valores propios distintos de A tal que v1 ∈ Eλ1 y v2 ∈ Eλ2 , entonces v1 · v2 = 0. Definición 7.24. Una matriz A se dice ortogonalmente diagonalizable si existe U ortogonal y D diagonal, tal que U tAU = D. Teorema 7.25. A es simétrica si y sólo si A es ortogonalmente diagonaliza- ble.
Compartir