Logo Studenta

Apuntes Algebra Lineal 2018-2 - Claudia Contreras Pedroza

¡Este material tiene más páginas!

Vista previa del material en texto

Apuntes de Álgebra Lineal
Carolina B. Becerra O.
Agosto 2018
Índice general
1. Vectores en Rn 5
2. Sistema de ecuaciones 13
3. Álgebra de Matrices 19
4. Bases 23
5. Transformaciones lineales 25
6. Determinantes 29
7. Valores y vectores propios 33
3
Caṕıtulo 1
Vectores en Rn
Definición 1.1. El conjunto de n tuplas ordenadas de números reales se
denota por Rn y a sus elementos se les llama vectores.
Rn =
v =
 x1...
xn
 tal que x1, . . . , xn ∈ R

A x1, . . . , xn se les llama componentes o coordenadas del vector v. Al vector
cuyas componentes son todas 0 se le llama vector nulo y se denota por
−→
0 .
Definición 1.2. Vectores canónicos:
ei =

0
...
0
1
0
...
0

← i , para i = 1, . . . , n
Ejemplo 1.3. Observar que importa el orden: 2−51/2
−π
 ̸=
 −521/2
−π
 ∈ R4.
Observar que la notación coincide:
5
0⃗ =
 000
0
 ∈ R4, 0⃗ = [ 00
0
]
∈ R3.
e3 =
 001
0
 ∈ R4, e3 = [ 00
1
]
∈ R3.
Definición 1.4. Dados u, v ∈ Rn la suma de u y v, denotada por u+ v es el
vector cuyas componentes son la suma de las respectivas componentes de u
y v. Dado α ∈ R, la ponderación de u por el escalar α ∈ R es el vector cuyas
componentes son el producto de α por las respectivas componentes de u. Es
decir:
Si u =
 x1...
xn
 , v =
 y1...
yn
, entonces u+ v =
 x1 + y1...
xn + yn
 , αu =
 αx1...
αxn
.
Ejemplo 1.5. 3
 2−51
−1
+ 2e3 − 4
 201
−1/2
 =
 −2−191
−1
.
Proposición 1.6. Sean u, v, w ∈ Rn y α, β ∈ R. Entonces las operaciones
anteriores satisfacen:
u+ v ∈ Rn.
(u+ v) + w = u+ (v + w).
u+ v = v + u.
u+
−→
0 = u.
u+ (−u) = −→0 .
αu ∈ Rn.
α(u+ v) = αu+ αv.
(α+ β)u = αu+ βu. (COMENTAR DIFERENCIA DE SIGNOS)
α(βu) = (αβ)u.
1 u = u.
Observación 1.7. Sea α ∈ R y u ∈ Rn. αu = 0⃗ si y sólo si α = 0 o u = 0⃗.
Demostración: Sea α ∈ R y u ∈ Rn. Si αu = 0⃗ y α ̸= 0, se multiplica
por 1/α y queda (1/α)αu = (1/α)⃗0 = 0⃗, es decir u = 0⃗.
�
Definición 1.8. Sea {v1, . . . , vm} ⊆ Rn. Una combinación lineal de los vec-
tores v1, . . . , vm es el vector
α1v1 + . . .+ αmvm,
donde αi ∈ R, para algunos α1, . . . , αm ∈ R.
Ejemplo 1.9. 3
 2−51
−1
+ 2e3 − 4
 201
−1/2
 =
 −2−191
−1
.
Definición 1.10. Sea S ⊆ Rn. El conjunto generado por S, denotado por
GenS es el conjunto de todas las combinaciones lineales de vectores de S.
Ejemplo 1.11. El vector
 −3−15
−6
 pertenece al conjunto generado por
 −201
−1
 ,
 1−13
−4
.
Ejemplo 1.12. Gen{e1, . . . en} = Rn.
Proposición 1.13. Sean S, S1, S2 ⊆ Rn. Entonces
Genϕ = Gen{−→0 } = {−→0 }.
−→
0 ∈ GenS.
GenS es cerrado bajo la suma y multiplicación por escalar.
S ⊂ GenS.
S1 ⊂ S2 → GenS1 ⊂ GenS2.
Demostración:
Algunas demostraciones:
−→
0 ∈ GenS, 0⃗ = 0v1 + 0v2 + · · ·+ 0vm.
S ⊂ GenS, v1 = 1 v1 + 0v2 + · · ·+ 0vm.
Gen{v1, v2} ⊂ Gen{v1, v2, v3}, α1v1 + α2v2 = α1v1 + α2v2 + 0v3.
�
Teorema 1.14. Sea S = {v1, v2, . . . , vm} ⊆ Rn.
Si v1 es combinación lineal de v2, . . . , vm, entonces
Gen{v1, v2, . . . , vm} = Gen{v2, . . . , vm}
Demostración:
(COMENTAR CONTENCIÓN DE CONJUNTOS)
Si v1 = 5v2 + 7v3, entonces
β1v1 + β2v2 + β3v3 =
β1(5v2 + 7v3) + β2v2 + β3v3 =
(5β1 + β2)v2 + (7β1 + β3)v3.
�
Definición 1.15. Sea S = {v1, v2, . . . , vm} ⊆ Rn.
S es linealmente dependiente (LD) si existen escalares α1, . . . , αm
no todos nulos tal que α1v1 + . . . + αmvm =
−→
0 . (se puede construir al
vector cero de manera no trivial).
S es linealmente independiente (LI) si no es LD, es decir si para
cualquier combinación lineal α1v1 + . . . + αmvm =
−→
0 , se tiene nece-
sariamente que α1 = . . . = αm = 0. (la única manera de construir al
vector cero es la trivial).
Ejemplo 1.16. El conjunto

 −3−15
−6
 ,
 −3−15
0

 es L.I.
El conjunto
{[
−3
6
]
,
[
−1
2
]}
es L.D.
El conjunto
{[
−3
6
]
,
[
−1
2
]
,
[
−5
10
]}
es L.D.
El conjunto
{[
−3
6
]
,
[
−1
2
]
,
[
1
0
]}
es L.D.
El conjunto
{[
−3
6
]
,
[
−1
2
]
,
[
1
0
]
,
[
2
0
]}
es L.D.
El conjunto {e1, . . . en} es L.I.
Observación 1.17. Si 0⃗ ∈ S ⊆ Rn, entonces S es LD.
Proposición 1.18. Sea S ⊆ Rn, con S finito. Entonces
S es LD si y sólo si existe un vector de S que es combinación lineal del
resto de los vectores de S.
S es LI si y sólo si todo subconjunto de S es LI.
Definición 1.19. Recta en R2. Sea d ∈ R2 no nulo, L = {x ∈ R2 tal que x =
u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen.
Definición 1.20. Recta en R3. Sea d ∈ R3 no nulo, L = {x ∈ R3 tal que x =
u+ αd, α ∈ R}. Si u = 0⃗ se dice que L pasa por el origen.
Definición 1.21. Plano en R3. Sea d1, d2 ∈ R3 L.I, Π = {x ∈ R3 tal que x =
u+ αd1 + βd2, α, β ∈ R}. Si u = 0⃗ se dice que Π pasa por el origen.
Ejemplo 1.22. En R4 seaH = {x ∈ R4 : x1+x2−2x3−x4 = 0 tal que x1, x2, x3, x4 ∈
R}.
x ∈ H ↔ x =
 x1x2x3
x1 + x2 − 2x3
 para x1, x2, x3 ∈ R.
x ∈ H ↔ x = x1
 100
1
+ x2
 010
1
+ x3
 001
−2
 para x1, x2, x3 ∈ R.
Por lo tanto H = Gen

 100
1
 ,
 010
1
 ,
 001
−2

.
Definición 1.23. Sean u, v ∈ Rn, el producto punto de u y v, denotado por
u · v, es la suma de los respectivos productos entre coordenadas. Es decir
Si u =
 x1...
xn
 , v =
 y1...
yn
, entonces u · v = x1y1 + . . .+ xnyn = n∑
i=1
xiyi.
Proposición 1.24. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto punto
satisface:
u · v ∈ R.
u · 0⃗ = 0⃗.
u · v = v · u.
u · (v + w) = u · v + u · w.
α(u · v) = (αu) · v.
u · u ≥ 0 y u · u = 0↔ u = 0⃗.
Ejemplo 1.25. ei · ej =
{
1 si i = j
0 si i ̸= j.
para todo i, j = 1, . . . , n.
Definición 1.26. Norma de un vector: Dado u =
 x1...
xn
 ∈ Rn,
∥u∥ =
√
n∑
i=1
xi
2 =
√
u · u.
Definición 1.27. Vector unitario: vector que tiene norma 1.
Definición 1.28. Distancia entre vectores: d(u, v) = ∥u− v∥.
Ejemplo 1.29. ∥ei∥ = 1 para todo i = 1 . . . n.
d(ei, ej) =
{
0 si i = j√
2 si i ̸= j.
para todo i, j = 1, . . . , n.
Proposición 1.30. Sean α ∈ R y u, v ∈ Rn. Entonces
∥αu∥ = |α|∥u∥.
∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v.
|u · v| ≤ ∥u∥∥v∥.
∥u+ v∥ ≤ ∥u∥+ ∥v∥.
Demostración:
∥αu∥ = |α|∥u∥.
Si u =
 x1...
xn
, entonces αu =
 αx1...
αxn
.
Luego ∥αu∥ =
√
n∑
i=1
αxi
2 = |α|
√
n∑
i=1
xi
2 = |α|∥u∥.
∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v.
Usando las propiedades del producto punto se tiene que:
∥u+v∥2 = (u+v)·(u+v) = u·u+u·v+v ·u+v ·v = ∥u∥2+∥v∥2+2u·v.
�
Definición 1.31. En Rn
Dados u, v ∈ Rn, u es ortogonal a v si u · v = 0. Notación: u ⊥ v.
{u1, . . . , um} ⊂ Rn es ortogonal si el conjunto no contiene a 0⃗ y ui ·uj =
0 para todo i ̸= j
{u1, . . . , um} ⊂ Rn es ortonormal si el conjunto es ortogonal y ui · ui =
1, ∀i.
Observación 1.32. Todo conjunto ortonormal es ortogonal y todo conjutno
ortogonal es L.I.
Proposición 1.33. Gram Schmidt: Dado S = {v1, . . . , vm} L.I., un conjunto
ortogonal que genere a GenS es {u1, . . . , um}, donde:
u1 = v1
u2 = v2 −
v2 · u1
u1 · u1
u1
u3 = v3 −
v3 · u1
u1 · u1
u1 −
v3 · u2
u2 · u2
u2
. . ..
Caṕıtulo 2
Sistema de ecuaciones
Definición 2.1. Una matriz es un arreglo ordenado de m vectores de Rn.
Notación: A = [v1 v2 . . . vm]. Se dice que A es una matriz de n×m, donde
m es el número de columnas y n es el número de filas.
Si vj =
 a1,j...
an,j
 para j = 1, . . . ,m, entonces A = (ai,j), donde ai,j son los
coeficientes o entradas de la matriz.
Definición 2.2. Matriz nula es tal que todos sus coeficientes son 0.
Matriz cuadrada es tal que n = m.
A es triangular superior si es cuadrada y ai,j = 0 para todo i > j.
A es triangular inferior si es cuadrada y ai,j = 0 para todo i < j.
A es diagonal si es cuadrada y ai,j = 0 para todo i ̸= j.
Definición 2.3. Matriz identidad es una matriz cuadrada denotada por I
tal que I = [e1 . . . en].
Definición 2.4. Dada A = [v1 v2 . . . vm] de n×m y x =
 x1...
xm
 ∈ Rm, el
producto de A por x es Ax = x1v1 + x2v2 + . . .+ xmvm ∈ Rn.
Proposición 2.5. Sea A de n×m, x, y ∈ Rm y α ∈ R. Entonces13
A(x+ y) = Ax+ Ay.
A(αx) = αAx.
A0⃗ = 0⃗.
Observación 2.6. Todo sistema de ecuaciones lineales se puede escribir de
la forma matricial Ax = b. Por ejemplo:
2x1 − x2 + 7x3 = 4
3x1 − 8x3 = 1
↔
[
2x1 − x2 + 7x3
3x1 − 8x3
]
=
[
4
1
]
↔ x1
[
2
3
]
+ x2
[
−1
0
]
+ x3
[
7
−8
]
=
[
4
1
]
↔
[
2 −1 7
3 0 −8
] x1x2
x3
 = [ 4
1
]
Definición 2.7. Un sistema de ecuaciones Ax = b es tal que A es una matriz
de n×m asociada al sistema, b ∈ Rn y x ∈ Rm. [A b] es la matriz ampliada
del sistema.
El sistema es homogéneo si b =
−→
0 y no homogéneo si b ̸= −→0 . El sistema es
consistente si tiene solución e inconsistente si no tiene solución.
Definición 2.8. Una matriz se dice que está en la forma escalonada (F.E.)
si:
1. a1,1 ̸= 0.
2. Si el pivote de la fila i está en la columna j, entonces el pivote de la
fila i+ 1 está en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la fila).
3. Las filas nulas están al final de la matriz.
Definición 2.9. Una matriz se dice que está en la forma escalonada reducida
(F.E.R.) si:
1. Está es la F.E.
2. Todos los pivotes son iguales a 1.
3. Los vectores columna que contienen pivotes son canónicos.
Definición 2.10. Dada una matriz, las operaciones fila son:
1. Tipo I: Intercambiar dos filas: Fi ↔ Fj.
2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi → λFi.
3. Tipo III: (pivotear) Sumar a una fila, un múltiplo escalar de otra:
Fi → Fi + λFj.
Observación 2.11. Para solucionar un sistema de ecuaciones se lleva la
matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
Observación 2.12. Lo anterior funciona pues si [A|b] ∼ [A′|b′], entonces
Ax = b↔ A′x = b′.
Teorema 2.13. Sea el sistema de ecuaciones Ax = b con A de n×m, y M
la F.E.R. de la matriz M = [A b].
Para b ̸= 0⃗, el sistema
es inconsistente si y sólo si M tiene una fila de la forma [0 . . . 0 c] con
c ̸= 0,
es consistente y tiene solución única si y sólo si M tiene m pivotes,
es consistente y tiene infinitas soluciones si y sólo si M tiene menos de
m pivotes (hay variables libres).
Para b =
−→
0 el sistema es consistente (
−→
0 es solución) y
tiene solución única si y sólo si F.E. de A tiene m pivotes,
tiene infinitas soluciones si y sólo si F.E. de A tiene menos de m pivotes
(hay variables libres).
Ejemplo 2.14. Se observan los siguientes ejemplos de F.E.R. de sistemas:[
1 0 2
0 1 3
]
[
1 0 2
0 0 0
]
[
1 0 1
0 0 1
]
 1 0 20 1 3
0 0 0

 1 0 20 0 0
0 0 0

 1 0 10 0 1
0 0 0

[
1 0 0 2
0 1 0 3
]
[
1 0 0 1
0 0 0 1
]
[
1 0 0
0 1 0
]
[
1 0 0
0 0 0
]
 1 0 00 1 0
0 0 0

 1 0 00 0 0
0 0 0

[
1 0 0 0
0 1 0 0
]
Definición 2.15. Rango de un sistema o de una matriz: número de pivotes
de la forma escalonada de la matriz asociada del sistema.
Proposición 2.16. Sea S = {v1, . . . , vm} ⊂ Rn y A = [v1 . . . vm]. S es L.I.
si y sólo si el sistema Ax = 0⃗ tiene solución única.
Proposición 2.17. Sea S = {v1, . . . , vm} ⊂ Rn y A una matriz cuyas filas
son los vectores del conjunto S. S es L.I. si y sólo si la F.E. de la matriz A
no tiene filas nulas.
Teorema 2.18. Sea v1, . . . , vm un conjunto de vectores de Rn. Si m > n,
entonces v1, . . . , vm es L.D.
Observación 2.19. Sea S = {v1, . . . , vm} ⊂ Rn, A = [v1 . . . vm] y b ∈ Rn.
Entonces b ∈ Gen{v1, . . . , vm} si y sólo si el sistema Ax = b es consistente.
Observación 2.20. Sea A de n × m y b1, . . . br ∈ Rn, para resolver Ax =
b1, Ax = b2, . . . , Ax = br se escalona una única matriz [A b1 b2 . . . br] y se
interpreta la solución para cada sistema por separado.
Caṕıtulo 3
Álgebra de Matrices
Definición 3.1. Mn,m(R) es el conjunto de todas las matrices de n×m con
coeficientes reales.
Definición 3.2. Sean A = [v1 . . . vm] , B = [u1 . . . um] ∈Mn,m(R) y α ∈ R.
La operaciones suma y multiplicación por escalar de matrices se definen por
A+B = [v1 + u1 . . . vm + um] , αA = [αv1 . . . αvm].
Proposición 3.3. Sean A,B,C ∈Mn,m(R) y α, β ∈ R. Entonces
A+B ∈Mn,m(R).
(A+B) + C = A+ (B + C).
A+B = B + A.
A+ 0 = A.
A+ (−A) = 0.
αA ∈Mn,m(R).
α(A+B) = αA+ αB.
(α + β)A = αA+ βA. (COMENTAR DIFERENCIA DE SIGNOS)
α(βA) = (αβ)A.
1 A = A.
19
Definición 3.4. Sea A de n×m y B de m× p, tal que B = [u1 . . . up], el
producto de A por B es la matriz A ·B = [A · u1 . . . A · up] de n× p.
Proposición 3.5. Sean A,B,C matrices tal que las siguientes operaciones
están bien definidas y α ∈ R. Entonces
A(BC) = (AB)C.
α(AB) = (αA)B = A(αB).
A(B + C) = AB + AC.
(A+B)C = AC +BC.
IA = AI = A.
0A = A0 = 0.
Observación 3.6. En general el producto de matrices no es conmutativo.
A =
[
0 1
0 0
]
, B =
[
1 0
0 0
]
y AB =
[
0 0
0 0
]
̸=
[
0 1
0 0
]
= BA.
Definición 3.7. Sea A de n ×m, la trasnpuesta de A denotada por At es
de m × n y es la matriz que resulta de intercambiar las filas de A por las
columnas de la A.
Ejemplo 3.8. Si A =
[
0 1
2 3
4 −1
]
, entonces At =
[
0 2 4
1 3 −1
]
.
Proposición 3.9. SeanA,B matrices tal que las siguientes operaciones están
bien definidas y α ∈ R. Entonces
(At)t = A.
α(At) = (αA)t.
(A+B)t = At +Bt.
(AB)t = BtAt.
Definición 3.10. Sea A = (ai,j) de n× n.
A es simétrica si A = At.
A es antisimétrica si A = −At.
Definición 3.11. A de n × n se dice invertible si existe una matriz B de
n× n tal que AB = BA = I.
Observación 3.12. Si A es invertible, entonces existe C tal que CA = I.
(Se demuestra que B=C y que es única).
Teorema 3.13. Sea A una matriz de n× n. Entonces
A es invertible.
↔ Existen u1, . . . , un tal que A[u1 . . . un] = [e1 . . . en].
↔ Ax = ei es consistente para todo vector canónico.
↔ Filas de A son L.I.
↔ Rango de A es n.
↔ Ax = 0⃗ tiene solución única.
↔ Columnas de A son L.I.
↔ F.E.R de A es la matriz identidad (MÉTODO)
Proposición 3.14. Sean A y B de n× n. Entonces
A es invertible si y sólo si Ax = b tiene solución única para todo b ∈ Rn.
Si A es invertible, entonces (A−1)−1 = A.
A es invertible si y sólo si At es invertible. En este caso (At)−1 = (A−1)t.
Si A es invertible y α ̸= 0, entonces αA es invertible y (αA)−1 = 1
α
A−1.
Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene
(Ar)−1 = (A−1)r = A−r.
SiA yB son invertibles, entoncesAB es invertible y (AB)−1 = B−1A−1.
Observación 3.15. Sean A1, . . . , Ak matrices cuadradas e invertibles. En-
tonces (A1 · . . . · Ak)−1 = (Ak)−1 · . . . · (A1)−1.
Proposición 3.16. Sean A,B,C,D matrices tal que las siguientes operacio-
nes están bien definidas. Entonces
Si A es invertible y AB = AC, entonces B = C.
Si A es invertible y BA = CA, entonces B = C.
Si A es invertible y AB = BA, entonces BA−1 = A−1B.
Si A es invertible, puede ocurrir que A−1BA ̸= B.
Si A y B son invertibles, y ACB = D, entonces C = A−1DB−1.
Observación 3.17. Una matriz diagonal es invertible si y sólo si todos los
elementos de su diagonal son no nulos.
Observación 3.18. Una matriz triangular superior (o inferior) es invertible
si y sólo si todos los elementos de su diagonal son no nulos.
Ejemplo 3.19. Productos notables.
utu y uut.
La triangularidad se mantiene al tomar inversas.
Caṕıtulo 4
Bases
Observación 4.1. Rn es un espacio vectorial sobre R, los conjuntos genera-
dos se dicen subespacios de Rn.
Definición 4.2. B ⊂ Rn es una base de Rn si B es LI y < B >= V . B ⊂ Rn
es una base de un conjunto generado U si B es LI y genera a U .
Teorema 4.3. Si B es una base de Rn y la cardinalidad de B es n, entonces
todas las bases de Rn tienen n elementos. Se dice que la dimensión de Rn es
n. Notación: Dim(Rn) = n.
Definición 4.4. Sea B = {v1, . . . , vn} una base de Rn y v ∈ Rn tal que
v = x1v1 + . . . xnvn. El vector coordenado de x en la base B es:
[v]B =
 x1...
xn

Proposición 4.5. Sean u, v ∈ Rn y B una base de Rn. Entonces
[u+ v] = [u] + [v].
[αu] =α[u].
{u1, . . . , um} es L.I. si y sólo si {[u1], . . . , [um]} es L.I.
u ∈ Gen{u1, . . . , um} si y sólo si [u] ∈ Gen{[u1], . . . , [um]}.
Definición 4.6. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de Rn.
Se define la matriz P = [ [v1]2 . . . [vn]2 ].
23
Proposición 4.7. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V .
Para todo x ∈ V : P · [x]1 = [x]2.
P es invertible.
Si ara todo x ∈ V : P · [x]1 = [x]2, entonces P−1 · [x]2 = [x]1
Caṕıtulo 5
Transformaciones lineales
Definición 5.1. T : Rm → Rn es una transformación lineal si T (v1 + v2) =
T (v1) + T (v2) y T (αv) = αT (v).
Observación 5.2. Si B es una base de Rm, entonces T queda determinada
por cómo actúa sobre la base.
Proposición 5.3. Sean T : Rm → Rn una transformación lineal. Entonces
existe una matriz A de n ×m tal que T (v) = Av. (Es decir, toda transfor-
mación lineal tiene esta forma, en adelante se hablará de una transformación
lineal o de una matriz indistintamente).
Definición 5.4. Sea A de n×m.
Ker(A) = {x ∈ Rm : Ax = −→0 }. Es el conjunto de pre-imágenes del
vector cero. Es el conjunto solución del sistema homogéneo asociado a
la matriz A. Es un subconjunto de Rm.
Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la función
dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de Rn.
C(A) es el conjunto generado por las columnas de la matriz A. Es el
recorrido de la función dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de Rn. (Está generado por las columnas de la matriz que en su forma
escalonada están en las posiciones pivotes).
25
F (A) es el conjunto generado por las filas de la matriz A. Es un sub-
conjunto de Rm. (Está generado por las filas no nulas de la forma
escalonada de la matriz).
Observación 5.5. Im(A) = C(A) = F (At).
Proposición 5.6. Sea A de n×m. Entonces
C(A) es un subespacio de Rn de dimensión igual al rango de A.
F (A) es un subespacio de Rm de dimensión igual al rango de A.
At es de m× n, F (At) = C(A) y C(At) = F (A).
Teorema 5.7. Sea A de n×m. Entonces
A es 1-1 (inyectiva) si y sólo si Ker(A) = {−→0 }.
A es sobreyectiva si y sólo si Im(A) = Rn.
Teorema 5.8. Sea A de n×m. Entonces
Filas de A son L.D.
↔ Existe una fila que es combinación lineal del resto.
↔ fn = α1f1 + . . .+ αn−1fn−1 (sin perder generalidad)
↔ La FER de A tiene por lo menos una fila nula
(haciendo las operaciones del tipo III necesarias).
Filas de A son L.I.
↔ La F.E.R. de A tiene no tiene filas nulas.
↔ Todas las filas de la F.E.R. de A contienen pivotes.
↔ Rango de A es n.
A es 1-1
↔ Ker(A) = {−→0 }.
↔ Ax = −→0 tiene solución única.
↔ Columnas de A son L.I.
↔ Rango de A es m.
A es sobre
↔ Im(A) = Rn.
↔ Ax = b es consistente para todo b ∈ Rn.
↔ Ax = ei es consistente para todo vector canónico.
↔ La FER de [A e1 . . . en] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
↔ Filas de A son L.I.
↔ Rango de A es n.
Observación 5.9. Si A es de n×m y B es de m× q, entonces AB define la
transformación compuesta A ◦B.
Observación 5.10. Si A es de n × n invertible, entonces A−1 define la
transformación inversa.
Teorema 5.11. Sea T : Rm → Rn una transformación lineal. Entonces
Dim Ker(T ) + Dim Im(T ) = m.
Ejemplo 5.12. Sea T : Rm → Rn una transformación lineal. Demuestre
1. Si T es inyectiva, entonces m ≤ n
2. Si T es sobreyectiva, entonces n ≤ m
Caṕıtulo 6
Determinantes
Definición 6.1. Determinante es una función: Det : Mn(R)→ R tal que:
|I| = 1
Si B resulta de hacer una operación de tipo I sobre A, entonces −|A| =
|B|
Si B resulta de hacer una operación de tipo II sobre A, entonces α|A| =
|B|
Si B resulta de hacer una operación de tipo III sobre A, entonces
|A| = |B|
Observación 6.2. Si A =
[
a b
c d
]
, entonces |A| = ad− bc
Proposición 6.3. Sea A una matriz de cuadrada. Entonces
Si A tiene dos filas iguales, entonces |A| = 0.
Si A tiene una fila nula, entonces |A| = 0.
Si A es triangular o diagonal, entonces |A| = Πai,i.
Teorema 6.4. Sea A una matriz de cuadrada. Entonces A es invertible si y
sólo si |A| ̸= 0.
29
Teorema 6.5. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|.
(Usar: A y B son invertibles si y sólo si AB es invertible.)
Proposición 6.6. Sea A una matriz de cuadrada. Entonces
|At| = |A|
Si A es invertible, entonces |A−1| = 1/|A|
Definición 6.7. Menor i, j de una matriz A es el determinante de la matriz
que resulta de eliminar de A la fila i y la columna j. Notación: Mi,j =.
Cofactor i, j de una matriz A es Ci,j = (−1)i+j Mi,j
Teorema 6.8. |A| = ai,1Ci,1 + . . . + ai,nCi,n para todo i = 1, . . . , n. (caso
i = 1)
Definición 6.9. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =
(ci,j)
t.
Teorema 6.10. Sea A una matriz de cuadrada. Entonces A · Adj(A) =
Adj(A) · A = |A| I
Proposición 6.11. Sea A una matriz de cuadrada. Si A es invertible, en-
tonces A−1 = 1/|A| Adj(A)
Ejemplo 6.12. 1. Sea A ∈ M4(R) tal que |A| = 5, encuentre |2A|, |4A|,
|2kA|, |A5|, | − A|, |A−1|, ||A|A−1|, |A−3|, ||A|A|
2. Sea A de 5× 5 tal que Det(A− I) = 0.
Demuestre que existe v ∈ R5 tal que Av = v.
3. Dé un ejemplo de matrices tal que |A+B| ̸= |A|+ |B|.
4. Sea a ∈ R, calcule el determinante de la siguiente matriz de n× n
a 1 1 · · · 1 1
1 a 1 · · · 1 1
1 1 a · · · 1 1
...
. . .
...
1 1 1 · · · a 1
1 1 1 · · · 1 a

Solución:
Si a = 1, quedan todas las filas iguales y entonces el determinante es 0.
Haciendo las operaciones: Fi → Fi−Fi+1, para i = 1, . . . , n− 1 queda:
=
∣∣∣∣∣∣∣∣∣∣∣
a− 1 1− a 0 · · · 0 0
0 a− 1 1− a · · · 0 0
0 0 a− 1 · · · 0 0
...
. . .
...
0 0 0 · · · a− 1 1− a
1 1 1 · · · 1 a
∣∣∣∣∣∣∣∣∣∣∣
.
Haciendo las operaciones: Fi → (1/(a − 1))Fi, para i = 1, . . . , n − 1
queda:
= (a− 1)n−1
∣∣∣∣∣∣∣∣∣∣∣
1 −1 0 · · · 0 0
0 1 −1 · · · 0 0
0 0 1 · · · 0 0
...
. . .
...
0 0 0 · · · 1 −1
1 1 1 · · · 1 a
∣∣∣∣∣∣∣∣∣∣∣
.
Haciendo las operaciones: Fn → Fn − F1, . . ., Fn → Fn − Fn−1 queda:
= (a− 1)n−1
∣∣∣∣∣∣∣∣∣∣∣
1 −1 0 · · · 0 0
0 1 −1 · · · 0 0
0 0 1 · · · 0 0
...
. . .
...
0 0 0 · · · 1 −1
0 0 0 · · · 0 a+ n− 1
∣∣∣∣∣∣∣∣∣∣∣
.
Queda una matriz diagonal, entonces el determinante pedido es:
(a− 1)n−1(a+ n− 1).
Caṕıtulo 7
Valores y vectores propios
Definición 7.1. Sea A de n × n, v ̸= 0⃗ es un vector propio de A si existe
λ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado a v.
Proposición 7.2. Sea A de n×n. λ es valor propio de A si y sólo si |A−λI| =
0.
Definición 7.3. Sea A de n×n. El polinomio caracteŕıstico de A es pA(x) =
|xI − A|. La ecuación caracteŕıstica de A es |A− xI| = 0.
Proposición 7.4. Sea A de n×n. λ es valor propio de A si y sólo si λ es ráız
de pA(x). La multiplicidad como ráız de pA(x) se dice que es la multiplicidad
algebraica de λ es (m.a.)
Observación 7.5. Sea A de n×n. Si v1 y v2 son vectores propios asociados
al valor propio λ, y α ∈ R, entonces αv1 y v1 + v2 son vectores propios
asociados a λ.
Proposición 7.6. Sea A de n×n y λ un valor propio de A. Eλ = {v ∈ Rn :
Av = λv} es el espacio propio asociado a λ. La dimensión de Eλ se dice que
es la multiplicidad geométrica de λ.(m.g.). Eλ = Ker(A− λI).
Teorema 7.7. Sea A de n × n y λ un valor propio de A. Entonces la m.g.
de λ es menor o igual a la m.a. de λ.
Proposición 7.8. Sea A de n× n. Entonces
A tiene a lo más n valores propios.
33
Si A es diagonal, entonces los valores propios de A son los elementos
de su diagonal.
Si A es triangular superior o inferior, entonces los valores propios de A
son los elementos de su diagonal.
A es no invertible si y sólo si 0 es valor propio de A.
Si λ es valor propio de A, entonces λm es valor propio de Am, para
m ∈ N.
Si λ es valor propio de A y A es invertible, entonces λ−1 es valor propio
de A−1.
Si λ1 y λ2 son dos valores propios distintos de A, entonces Eλ1∩Eλ2 =
{⃗0}.
Definición 7.9. Dado un polinomio q(x) = a0+a1x+ . . .+amx
m y A matriz
cuadrada, se define a q(A) como la matriz a0I + a1A+ . . .+ amA
m.
Observación 7.10. Dado un polinomio q(x) = a0 + a1x + . . . + amx
m y D
matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se
forma con los elementos de la diagonal de D evaluados en q(x).
Teorema 7.11. Sea A matriz cuadrada. Entonces pA(A) es la matriz nula.
Definición 7.12. Dos matrices cuadradas A y B se dicen similares si existe
una matriz L invertible tal que L−1AL = B.
Proposición 7.13. Si A y B son similares, entonces tienen los mismos
valores propios (tienen el mismo polinomio caracteŕıstico). Si L es tal que
L−1AL = B y v es vector propio de B asociado a λ, entonces Lv es vector
propio de A asociado a λ.
Definición 7.14. Una matriz cuadrada A (o transformación lineal T ) es
diagonalizable si y sólo si es similar a una matriz diagonal.
Proposición 7.15. Si A y B son similares, entonces A es diagonalizable si
y sólo si B es diagonalizable.
Teorema 7.16. A es diagonalizable si y sólo si existen n vectores propios
L.I. de A.
Corolario 7.17. Si A tiene n valores propios distintos, entonces A es diago-
nalizable.
Observación 7.18. Si A es diagonalizable, entonces Am es diagonalizable,
para todo m ∈ N.
Observación 7.19. Si A es tal que Au = λu, entonces Aku = λku. Luego
ĺım
k→∞
Aku =
(
ĺım
k→∞
λk
)
u.
Observación 7.20. Si Av = λv, entonces ĺım
k→∞
Akv =
0 si |λ| < 1,
v si λ = 1,
no existe si |λ| > 1.
Observación 7.21. Sea A es diagonalizable y q(x) un polinomio. Entonces
A = L

d1 0 . . . 0
0 d2 0
. . .
0 0 . . . dn
L−1 → q(A) = L

q(d1) 0 . . . 0
0 q(d2) 0
. . .
0 0 . . . q(dn)
L−1
Definición 7.22. U de n× n es ortogonal si U tU = I.
Proposición 7.23. Sea A simétrica. Entonces
A tiene sólo valores propios reales.
Si λ1 y λ2 son dos valores propios distintos de A tal que v1 ∈ Eλ1 y
v2 ∈ Eλ2 , entonces v1 · v2 = 0.
Definición 7.24. Una matriz A se dice ortogonalmente diagonalizable si
existe U ortogonal y D diagonal, tal que U tAU = D.
Teorema 7.25. A es simétrica si y sólo si A es ortogonalmente diagonaliza-
ble.

Otros materiales