Logo Studenta

Matrices_y_determinantes-2016

¡Este material tiene más páginas!

Vista previa del material en texto

Matrices y determinantes
Notas de clase de Álgebra y Geometŕıa Anaĺıtica II (LCC)
Facultad de Ciencias Excatas, Ingenieŕıa y Agrimensura
Excuela de Ciencias Exactas y Naturales
Departamento de Matemática
Silvio Reggiani
1 de noviembre de 2016
1. Matrices
En lo que sigue supondremos que F es el cuerpo de los números racionales, reales o
complejos. O sea, F será Q, R o C.
Definición 1.1. Una matriz A de tamaño m× n con coeficientes en F es una función
A : J1,mK× J1, nK→ F,
en donde J1,mK = {1, 2, . . . ,m} y J1, nK = {1, 2, . . . , n}. El conjunto de todas las matrices
m×n con coeficientes en F se denotará por Fm×n. En algunos libros se denota el conjunto
de matrices m× n también por Mm×n(F) o M(m,n,F).
Es común representar a una matriz A : J1,mK×J1, nK→ F como un arreglo rectangular
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
am1 am2 · · · amn

en donde aij = A(i, j) son los llamados coeficientes de la matriz A. También se dice que
A tiene m filas y n columnas.
Notación. Otras notaciones frecuentes, y que a menudo emplearemos son las siguientes.
Una matriz A ∈ Fm×n se denota abreviadamente como A = (aij) o A = (aij)ij, o cuando
hay dudas sobre el tamaño de la matriz se suele escribir A = (aij)i=1,...,m, j=1,...,m, en donde
los coeficientes de la matriz A son aij. Otra notación muy frecuente es la que nombra los
coeficientes de la matriz A con la misma letra (en mayúscula en este caso) indicando con
un sub́ındice la posición fila-columna, es decir, A = (Aij). Esta notación resulta muy útil
cuando la matriz en cuestión no está denotada con una letra del alfabeto latino.
Diremos que dos matrices A = (aij) y B = (bij) son iguales si tienen la misma cantidad
de filas, la misma cantidad de columnas y aij = bij para todos i, j.
1
Ejemplo 1.2. Observemos que
(
1 7 0
−2 1 4
)
6=
1 −27 1
0 4
 .
En efecto, si bien ambas matrices nos dan la “misma información” (pues todo coeficiente
de una aparece en alguna posición de la otra), la primera matriz es de tamaño 2 × 3,
en tanto que la segunda es 3 × 2. Más generalmente, si A ∈ Fm×n y B ∈ Fn×m, con
n 6= m, entonces A 6= B. Este hecho cobrará importancia en breve, cuando definamos la
multiplicación de matrices.
Ejemplo 1.3. F1×1 = F, o sea, una matriz 1×1 es un escalar. A decir verdad, una matriz
1 × 1 es una función A : {1} × {1} → F, pero en estas notas identificaremos A con su
imagen, o sea A = A(1, 1) = a11.
Ejemplo 1.4. Consideremos la matriz A ∈ F3×3 dada por aij = i+ j. Entonces
A =
2 3 43 4 5
4 5 6
 .
Observar que en esta matriz las antidiagonales (es decir las ĺıneas que se pueden trazar
en dirección sudoeste) son constantes. ¿Se puede generalizar esto?
Ejemplo-Definición 1.5. Diremos que v es un vector fila de tamaño n si v ∈ F1×n, o
sea
v =
(
v1 v2 · · · vn
)
,
en tanto que v se dirá un vector columna de tamaño m si v ∈ Fm×1, o sea
v =

v1
v2
...
vm
 .
Ejemplo-Definición 1.6. Una matriz A se dice cuadrada si tiene la misma cantidad de
filas y columnas. Es decir, si A ∈ Fn×n para algún n. En tal caso, el vector diagonal de
A es
diag(A) = (a11, a22, . . . , ann).
Una matriz cuadrada A = (aij) se dice:
triangular superior si aij = 0 para i > j;
triangular superior estricta si aij = 0 para i ≥ j;
triangular inferior si aij = 0 para i < j;
triangular inferior estricta si aij = 0 para i ≤ j;
2
diagonal si A es triangular superior y triangular inferior.
Las matrices1 3 00 −1 4
0 0 0
 ,
0 2 −40 0 3
0 0 0
 ,
1 0 04 −6 0
1 2 2
 ,
1 0 00 7 0
0 0 −4
 ,
son triangular superior, triangular superior estricta, triangular inferior y diagonal, res-
pectivamente.
Ejemplo-Definición 1.7. La matriz nula 0 = 0m×n ∈ Fm×n es la matriz de tamaño
m× n que tiene todas sus entradas iguales a cero, o sea,
0m×n =

0 0 · · · 0
0 0 · · · 0
...
...
. . .
...
0 0 · · · 0

︸ ︷︷ ︸
n columnas
m filas
Si bien hemos abusado de la notación denotando por 0 a la matriz nula, con el mismo
śımbolo que usamos para denotar el elemento nulo en F, no debemos confundir estos
conceptos. El significado de 0 debeŕıa ser claro del contexto. De todas formas, cuando se
presente alguna duda, preferiremos la notación 0m×n.
Ejemplo-Definición 1.8. La matriz identidad de orden n es la matriz I = In ∈ Fn×n
tal que Iij = δij, en donde δij es la llamada delta de Kronecker
δij =
{
1 si i = j
0 si i 6= j.
Es decir,
I =

1 0 · · · 0
0 1 · · · 0
...
...
. . .
...
0 0 · · · 1

es la matriz diagonal con diag(I) = (1, 1, . . . , 1).
1.1. Operaciones entre matrices
La multiplicación de la matriz A ∈ Fm×n por el escalar α ∈ F se define como la matriz
C = αA ∈ Fm×n dada por cij = αaij. Por ejemplo,
2
(
1 9
−7 3
)
=
(
2 18
−14 6
)
.
Si A,B ∈ Fm×n, la suma de A con B es la matriz C = A + B ∈ Fm×n dada por
cij = aij + bij. Por ejemplo,(
2 1 0
−2 3 15
)
+
(
0 0 12
−3 −3 7
)
=
(
2 1 12
−5 0 22
)
.
Observar que solo se pueden sumar matrices del mismo tamaño.
3
Ejercicio 1.9. Dados A,B,C ∈ Fm×n y α, β ∈ F, verificar las siguientes propiedades.
0A = 0m×n.
α0m×n = 0m×n.
La suma de matrices es asociativa, o sea A+ (B + C) = (A+B) + C.
α(βA) = (αβ)A.
A + 0m×n = 0m×n + A = A, es decir, la matriz nula es el elemento neutro para la
suma de matrices.
(α + β)A = αA + βA, o sea, la suma en F es distributiva con respecto a la multi-
plicación de una matriz por un escalar.
α(A + B) = αA + αB, o sea, la multiplicación por un escalar es distributiva con
respecto a la suma de matrices.
A continuación definiremos la multiplicación de matrices. Intuitivamente, uno querŕıa
que la multiplicación de matrices respetara las formas que ya tenemos de multiplicar
vectores, es decir, el producto escalar y el producto de sus coordenadas. Recordemos que
tenemos dos formas matriciales de pensar un vector en Fn: a saber como un vector fila o
como un vector columna. La multiplicación de matrices impone ciertos requerimientos al
tamaño de las matrices para poder calcular el producto, pero bajo tales condiciones serán
validas las siguientes identidades, por ejemplo para n = 3, para vectores fila y vectores
columna:
(
a1 a2 a3
)b1b2
b3
 = a1b1 + a2b2 + a3b3 (producto escalar),
a1a2
a3
(b1 b2 b3) =
a1b1 a1b2 a1b3a2b1 a2b2 a2b3
a3b1 a3b3 a3b3
 (producto de coordenadas).
Notar que en el primer caso, el producto de una matriz 1×3 por una matriz 3×1 nos
da una matriz 1 × 1, en tanto que en el segundo caso, el producto de una matriz 3 × 1
por una matriz 1× 3 nos da una matriz 3× 3.
Definición 1.10. Si A ∈ Fm×n y B ∈ Fn×p definimos el producto de A con B como la
matriz C = AB ∈ Fm×p dada por
cij =
n∑
k=1
aikbkj.
En otras palabras, el lugar (AB)ij está dado por el producto escalar entre la i-ésima fila
de A y la j-ésima columna de B.
4
Ejemplo 1.11. Sean
A =
(
1 2 0
−3 1 4
)
, B =
0 1 −5 32 1 0 −2
7 5 −2 10
 .
Observar que como A es 2 × 3 y B es 3 × 4 está definido el producto AB (¡y será una
matriz 2× 4!):
AB =
(
4 3 −5 −1
30 18 7 29
)
.
Una forma sencilla para recordar la fórmula del producto de matrices es la siguiente:
se traza una cruz y se disponen los coeficientes de la matriz A en el cuadrante inferior
izquierdo, y los coeficientes de la matriz B en el cuadrante superior derecho. Para calcular
el coeficiente (AB)ij, se calcula el producto escalar entre la fila i de A y la columna j de
B. Observar que si uno traza una ĺınea horizontal según la fila i de A y una ĺınea vertical
según la columna j de B, entonces el lugar i, j de la matriz AB se encuentra justamente
donde se cortan estas ĺıneas
↓ ↓ ↓ ↓
0 1 −5 3
2 1 0 −2
7 5 −2 10
→ 1 2 0 4 3 −5 −1
→ −3 1 4 30 18 7 29
En el ejemplo anterior tenemos resaltado en negrita la fila 2 de A y la columna 3 de B,
aśı como el lugar (AB)23. Notemos que efectivamente
(AB)23 = (−3, 1, 4)× (−5, 0,−2) = (−3) · (−5) + 2 · 0 + 4 · (−2) = 15− 8 = 7.
Si bien este modo de calcular el producto de matrices es bastante intuitivo, resulta un
pocotedioso en algunas situaciones (por ejemplo cuando queremos calcular el producto
de tres o más matrices). Sin embargo, con un poco de práctica y para matrices razonables,
el lector podrá calcular los productos mentalmente.
Observación 1.12. El producto de matrices no es conmutativo. En efecto, calculemos el
producto de las matrices
A =
(
1 2
0 −1
)
, B =
(
1 0
1 1
)
.
Observemos que tanto A como B son matrices 2×2, por lo tanto tiene sentido preguntarse
si AB es igual a BA. Por un lado
1 0
1 1
1 2 3 2
0 −1 −1 −1
AB =
(
3 2
−1 −1
)
,
5
y por el otro
1 2
0 −1
1 0 1 2
1 1 1 1
BA =
(
1 2
1 1
)
,
de donde sigue que AB 6= BA.
Si bien acabamos de observar que el producto de matrices cuadradas del mismo ta-
maño no es conmutativo, śı es cierto que este producto es asociativo. Más aún, se tiene
el siguiente resultado
Teorema 1.13. El producto de matrices es asociativo, o sea, si A ∈ Fm×n, B ∈ Fn×p y
C ∈ Fp×q, entonces
A(BC) = (AB)C.
Observar que los dos productos mencionados en el teorema están bien definidos. En
efecto como A es m× n y BC es n× q, entonces A(BC) es m× q. Asimismo, como AB
es m× p y C es p× q, (AB)C también es m× q.
Demostración. La prueba es por cálculo directo usando la definición. Sean 1 ≤ i ≤ m y
1 ≤ j ≤ q. Entonces, por un lado
(A(BC))ij =
n∑
k=1
Aik(BC)kj =
n∑
k=1
Aik
p∑
`=1
Bk`C`j
=
n∑
k=1
p∑
`=1
AikBk`C`j (1.1)
y por el otro
((AB)C)ij =
p∑
`=1
(AB)i`C`j =
p∑
`=1
n∑
k=1
AikBk`C`j
=
n∑
k=1
p∑
`=1
AikBk`C`j. (1.2)
Como (1.1) coincide con (1.2) para todos i, j, concluimos que A(BC) = (AB)C.
El siguiente teorema dice que valen las leyes distributivas para el producto de matrices
con respecto a la suma.
Teorema 1.14. 1. Si A ∈ Fm×n y B,C ∈ Fn×p, entonces
A(B + C) = AB + AC.
2. Si A,B ∈ Fm×n y C ∈ Fn×p, entonces
(A+B)C = AC +BC.
6
Demostración. Para probar 1 observamos que para 1 ≤ i ≤ m, 1 ≤ j ≤ p,
(A(B + C))ij =
n∑
k=1
Aik(B + C)kj =
n∑
k=1
Aik(Bkj + Ckj)
=
n∑
k=1
AikBkj +
n∑
k=1
AikCkj = (AB)ij + (AC)ij
= (AB + AC)ij.
La parte 2 queda como ejercicio.
Teorema 1.15. Sea A ∈ Fm×n, entonces
ImA = AIn = A.
En particular, la matriz identidad In es el elemento neutro para el producto en Fn×n.
Demostración. Recordemos que (Im)ij = δij es la delta de Kronecker. Luego
(ImA)ij =
m∑
k=1
(Im)ikAkj =
m∑
k=1
δikAkj = Aij,
de donde sigue que ImA = A. Probar como ejercicio que AIn = A.
Ejemplo 1.16. Consideremos la matriz
A =
(
1 1
1 0
)
y calculemos las potencias sucesivas de A. Es decir, A2 = AA, A3 = AA2 = AAA,
A4 = AA3 = A2A2 = AAAA, etc. En efecto,
A2 =
(
1 1
1 0
)(
1 1
1 0
)
=
(
2 1
1 1
)
A3 = AA2 =
(
1 1
1 0
)(
2 1
1 1
)
=
(
3 2
2 1
)
A4 = AA3 =
(
1 1
1 0
)(
3 2
2 1
)
=
(
5 3
3 2
)
A5 = AA4 =
(
1 1
1 0
)(
5 3
3 2
)
=
(
8 5
5 3
)
El lector quizás ya pueda intuir que el resultado general es
An =
(
Fn+1 Fn
Fn Fn−1
)
, (1.3)
en donde los números Fn son los números de la sucesión de Fibonacci, dada por F0 = 0,
F1 = 1 y Fn+1 = Fn + Fn−1 para n ≥ 1. En efecto, probemos la fórmula (1.3) por
inducción. Es claro que (1.3) vale para n = 1, pues A1 = A (de hecho, ya lo probamos para
7
n = 1, 2, 3, 4, 5). Supongamos que dicha fórmula vale para un cierto n ≥ 2 y verifiquemos
el resultado para n+ 1:
An+1 = AAn =
(
1 1
1 0
)(
Fn+1 Fn
Fn Fn−1
)
=
(
Fn+1 + Fn Fn + Fn−1
Fn+1 Fn
)
=
(
Fn+2 Fn+1
Fn+1 Fn
)
,
con lo cual la fórmula (1.3) vale para todo n ∈ N.
Hay otro tipo de operación que se puede aplicar sobre una matriz, la cual no involucra
operaciones algebraicas (como sumar o multiplicar) si no intercambios de lugar en los
coeficientes de la matriz.
Definición 1.17. Dada A ∈ Fm×n se define la matriz transpuesta de A, como la matriz
At ∈ Fn×m dada por
(At)ij = Aji.
Es decir, At es la matriz cuyas columnas son las filas de A.
Ejemplo 1.18. Notemos si una matriz tiene tamaño, digamos, 2× 3 entonces su trans-
puesta tendrá tamaño 3× 2. Por ejemplo,(
2 −7 1
0 3 6
)t
=
 2 0−7 3
1 6
 .
Ejemplo 1.19. Si A es una matriz diagonal, entonces At = A.
Proposición 1.20. Sean A,B ∈ Fm×n, α ∈ F. Entonces:
1. (At)t = A;
2. (αA)t = αAt;
3. (A+B)t = At +Bt.
Demostración. Observar que para todos 1 ≤ i ≤ m, 1 ≤ j ≤ n valen
((At)t)ij = (A
t)ji = Aij,
de donde sigue que (At)t = A;
((αA)t)ij = (αA)ji = αAji = α(A
t)ij = (αA
t)ij,
de donde sigue que (αA)t = αAt; y
((A+B)t)ij = (A+B)ji = Aji +Bji = (A
t)ij + (B
t)ij = (A
t +Bt)ij,
de donde sigue que (A+B)t = At +Bt.
8
Notar que la transposición no es una operación multiplicativa, es decir, no vale en
general que (AB)t = AtBt, de hecho, quizás ni siquiera tenga sentido el producto del
lado derecho de esta igualdad. Sin embargo, se tiene el siguiente resultado que relaciona
la transposición con el producto de matrices.
Proposición 1.21. Si A ∈ Fm×n y B ∈ Fn×p entonces
(AB)t = BtAt.
Demostración. Por un cálculo directo se tiene que
((AB)t)ij = (AB)ji =
n∑
k=1
AjkBki =
n∑
k=1
BkiAjk
=
n∑
k=1
(Bt)ik(A
t)kj = (B
tAt)ij
para todos 1 ≤ i ≤ p, 1 ≤ j ≤ m. Por tanto, (AB)t = BtAt.
Definición 1.22. Sea A ∈ Fn×n. Decimos que A es:
simétrica si At = A;
antisimétrica si At = −A.
Ejemplo 1.23. La matriz
A =
1 4 64 2 5
6 5 0

es simétrica, At = A, en tanto que la matriz
B =
 0 1 5−1 0 −7
−5 7 0

es antisimétrica, Bt = −B. Observar que “simetŕıa” o “antisimetŕıa” para matrices,
significa simetŕıa o antisimetŕıa con respecto a la diagonal. En particular, una matriz
simétrica queda determinada por los coeficientes ubicados de la diagonal para arriba.
Ejemplo 1.24. Si A es antisimétrica entonces diag(A) = (0, 0, . . . , 0).
Proposición 1.25. Toda matriz A ∈ Fn×n puede escribirse como la suma de una matriz
simétrica y una matriz antisimétrica. Es decir,
A = Asim + Aanti,
con (Asim)
t = Asim y (Aanti)
t = −Aanti.
9
Demostración. Observemos que
A =
1
2
(A+ At) +
1
2
(A− At).
Luego, si llamamos
Asim =
1
2
(A+ At), Aanti =
1
2
(A− At),
entonces por la Proposición 1.20, se tiene que
(Asim)
t =
(
1
2
(A+ At)
)t
=
1
2
(At + A) =
1
2
(A+ At) = Asim
y
(Aanti)
t =
(
1
2
(A− At)
)t
=
1
2
(At − A) = −1
2
(A− At) = −Aanti,
como se queŕıa probar.
Ejercicio 1.26. Probar que la descomposición de la Proposición 1.25 es única. Es decir,
si A = A′ + A′′ con (A′)t = A′ y (A′′)t = −A′′, entonces A′ = Asim y A′′ = Aanti.
Definición 1.27. Dada A ∈ Fn×n, se define la traza de A como
trA =
n∑
i=1
Aii.
Ejemplo 1.28. Para la matriz
A =
2 −5 70 7 2
0 1 −9

tenemos que
trA = 2 + 7− 9 = 0.
Ejercicio 1.29. Dados A,B ∈ Fn×n, α ∈ F, probar que:
1. tr(A+B) = trA+ trB;
2. tr(αA) = α trA;
3. tr(AB) = tr(BA).
Proposición 1.30. Si A ∈ Fn×n, entonces
tr(AAt) =
n∑
i=1
n∑
j=1
A2ij.
10
Demostración. Observemos que
(AAt)ii =
n∑
j=1
Aij(A
t)ji =
n∑
j=1
AijAij =
n∑
j=1
A2ij,
de donde se obtiene que
tr(AAt) =
n∑
i=1
(AAt)ii =
n∑
i=1
n∑
j=1
A2ij.
Comentario. 1. Si F = R, puede pensarse en el número tr(AAt) como el “módulo” al
cuadrado de la matriz A ∈ Rn×n, pues este número se calcula sumando los cuadrados
de todos los coeficientes de la matriz A. Esto introduce una noción geométrica de
distancia en el conjunto Rn×n, es decir, la distancia entre dos matrices A,B ∈ Fn×n
se define como el módulo de la diferencia B − A,
dist(A,B) = tr
(
(B − A)(B − A)t
) 1
2 .
A partir de esta distancia, es posible definir muchas otras nociones geométricas.
2. El conjunto de todas las matrices A ∈ Rn×n tales que
trA = const.
puede pensarse como un “hiperplano” en Rn×n, pues dichas matrices satisfacen
una especie de “ecuación general del plano”: una ecuación lineal generalizada a n2
variables.
Ejemplo 1.31. El hiperplano de todas las matrices 2× 2 de traza cero, con coeficientes
reales, está dado por {(
x y
z w
)
∈ R2×2 : x+ w = 0
}
.
2. Determinantes
Recordemos que para n ∈ N, se denota por J1, nK = {1, 2, . . . , n} el intervalo de todos
los enteros comprendidos entre 1 y n.
Definición 2.1. Dado n ∈ N, denotaremos por
Sn = {σ : J1, nK→ J1, nK : σ esbiyectiva}
el conjunto de permutaciones de n elementos.
Observación 2.2. Ya hemos probado los siguientes hechos.
Hay n! permutaciones de n elementos, o sea |Sn| = n!.
Si σ, τ ∈ Sn entonces σ ◦ τ ∈ Sn, en donde σ ◦ τ es la composición de σ con τ y está
definida por (σ ◦ τ)(i) = σ(τ(i)) para todo i ∈ J1, nK.
11
La función identidad id : Sn → Sn se comporta como el “elemento neutro” de Sn
con respecto a la operación composición, es decir,
id ◦ σ = σ ◦ id = σ
para toda σ ∈ Sn.
Toda σ ∈ Sn tiene una inversa, es decir, existe una permutación σ−1 ∈ Sn tal que
σ ◦ σ−1 = σ−1 ◦ σ = id .
Se puede identificar una permutación σ ∈ Sn con una n-upla de números entre 1 y
n, todos distintos,
σ ←→ (σ(1), σ(2), . . . , σ(n)).
Más aún, en la presente unidad abusaremos de la notación escribiendo
σ = (σ(1), σ(2), . . . , σ(n)).
Por ejemplo, la n-upla (1, 2, . . . , n) representa la permutación identidad, en tanto
que (2, 1, 3, 4, . . . , n) representa la permutación que intercambia el 1 con el 2 y deja
fijos los demás elementos.
Las permutaciones que intercambian solamente dos elementos forman una familia muy
importante y llevan nombre propio.
Definición 2.3. Una trasposición es una permutación que intercambia sólo dos elemen-
tos. O sea, τ ∈ Sn es una trasposición si existen i, j ∈ J1, nK, i 6= j, tales que
τ(k) =

j si k = i,
i si k = j,
k si k 6= i, j.
Notación. Denotaremos por τi,j la transposición que intercambia i con j. Observemos
que esta notación es ambigua pues, por ejemplo, τ1,2 representa permutaciones distintas
según consideremos τ1,2 ∈ S2 o τ1,2 ∈ S3. En el primer caso τ1,2 = (2, 1) y en el segundo
τ1,2 = (2, 1, 3). Por ende, para indicar una trasposición τi,j también debeŕıamos indicar el
n tal que τi,j ∈ Sn. Sin embargo, en lo que sigue siempre podremos deducir quién es n a
partir del contexto. Observemos que para i < j, la transposición que intercambia i con j
se representa mediante la n-upla
τi,j = (1, . . . , i− 1, j, i+ 1, . . . , j − 1, i, j + 1, . . . , n).
Observación 2.4. Es importante notar que si τ es una trasposición, entonces τ ◦ τ = id,
o sea, τ es su propia inversa, τ = τ−1.
Usando trasposiciones, uno puede calcular fácilmente la inversa de una permutación
arbitraria σ ∈ Sn. En efecto, simplemente debemos reordenar de menor a mayor la n-upla
(σ(1), σ(2), . . . , σ(n)) intercambiando sólo dos elementos en cada paso.
12
Ejemplo 2.5. Sea σ ∈ S6 la permutación representada por la 6-upla σ = (2, 4, 3, 1, 6, 5).
En un primer paso podemos intercambiar 1 con 2 para obtener la 6-upla (1, 4, 3, 2, 6, 5),
o más formalmente
τ1,2 ◦ σ = (1, 4, 3, 2, 6, 5).
Luego podemos intercambiar 2 con 4 para obtener
τ2,4 ◦ τ1,2 ◦ σ = (1, 2, 3, 4, 6, 5).
Finalmente, para llegar a la identidad, debemos intercambiar 5 con 6,
τ5,6 ◦ τ2,4 ◦ τ1,2 ◦ σ = (1, 2, 3, 4, 5, 6) = id .
Por lo tanto,
σ−1 = τ5,6 ◦ τ2,4 ◦ τ1,2,
de donde se desprende que σ = (τ1,2)
−1 ◦ (τ2,4)−1 ◦ (τ5,6)−1 y como cada trasposición es su
propia inversa, se obtiene que
σ = τ1,2 ◦ τ2,4 ◦ τ5,6,
es decir, logramos escribir σ como una composición de trasposiciones. Este es un hecho
general, como lo refleja el siguiente teorema.
Teorema 2.6. 1. Toda σ ∈ Sn se puede escribir como una composición de trasposi-
ciones,
σ = τ1 ◦ τ2 ◦ · · · ◦ τk,
con τi trasposición.
2. Dada σ ∈ Sn, la cantidad k de trasposiciones τi usadas en una descomposición σ
como la dada en el ı́tem anterior es siempre par o siempre impar.
Ejemplo 2.7. Consideremos σ = (2, 4, 3, 1) ∈ S4. Razonando como en el Ejemplo 2.5
obtenemos que
τ1,2 ◦ σ = (1, 4, 3, 2)
τ2,4 ◦ τ1,2 ◦ σ = (1, 2, 3, 4),
de donde σ = τ1,2 ◦ τ2,4 y logramos escribir σ como una composición de k = 2 trasposicio-
nes. Obviamente esta no es la única manera de reordenar de menor a mayor los números
(2, 4, 3, 1), uno podŕıa hacer también
τ1,3 ◦ σ = (2, 4, 1, 3),
τ1,4 ◦ τ1,3 ◦ σ = (2, 1, 4, 3),
τ1,2 ◦ τ1,4 ◦ τ1,3 ◦ σ = (1, 2, 4, 3),
τ3,4 ◦ τ1,2 ◦ τ1,4 ◦ τ1,3 ◦ σ = (1, 2, 3, 4),
de donde sigue que σ también se puede escribir como la composición σ = τ1,3◦τ1,4◦τ1,2◦τ3,4
usando k = 4 trasposiciones. Notemos que en ambos casos necesitamos una cantidad par
de trasposiciones para descomponer σ.
13
Definición 2.8. El signo de una permutación σ ∈ Sn se define por
sg(σ) = (−1)k,
en donde σ = τ1 ◦ τ2 ◦ · · · ◦ τk con τi trasposición (notar el signo está bien definido por el
Teorema 2.6). Diremos que σ es
una permutación par si sg(σ) = 1,
o una permutación impar si sg(σ) = −1.
Teorema 2.9. 1. sg(id) = 1.
2. sg(σ ◦ τ) = sg(σ) sg(τ) para todas σ, τ ∈ Sn.
3. sg(σ−1) = sg(σ)−1 = sg(σ) para toda σ ∈ Sn.
Demostración. La primera parte es trivial. Para la segunda, usando el Teorema 2.6,
podemos escribir σ = σ1 ◦ · · · ◦ σk y τ = τ1 ◦ · · · ◦ τ` con σi, τj trasposiciones. Luego
σ ◦ τ = σ1 ◦ · · · ◦ σk ◦ τ1 ◦ · · · ◦ τ`
es composición de k + ` trasposiciones y por consiguiente
sg(σ ◦ τ) = (−1)k+` = (−1)k(−1)` = sg(σ) sg(τ).
Para probar la tercera parte podemos usar lo que acabamos de demostrar. En efecto,
como σ ◦ σ−1 = id, sigue que
1 = sg(id) = sg(σ ◦ σ−1) = sg(σ) sg(σ−1),
con lo cual
sg(σ−1) =
1
sg(σ)
= sg(σ)−1.
Observar que si sg(σ) = 1, entonces sg(σ−1) = 1/1 = 1 y si sg(σ) = −1, entonces
sg(σ−1) = 1/(−1) = −1. En cualquiera de los dos casos vale sg(σ) = sg(σ−1).
Con estos preliminares sobre permutaciones estamos ya en condiciones de definir el
determinante de una matriz cuadrada.
Definición 2.10. Sea A ∈ Fn×n, el determinante de A se define como
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i). (2.1)
En otras palabras, para calcular el determinante de A hay que sumar todos los posibles
factores que se pueden armar con coeficientes de A, tomando un elemento en cada fila y
cada columna, en donde el factor A1σ(1)A2σ(2) · · ·Anσ(n) debe ir multiplicado por el signo
de la permutación de las columnas σ.
14
Es común la notación que indica el determinante de la matriz A = (aij) utilizando
barras verticales:
detA =
∣∣∣∣∣∣∣∣∣
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
an1 an2 · · · ann
∣∣∣∣∣∣∣∣∣ .
A continuación estudiamos algunos casos particulares que ayudarán a clarificar la
definición del determinante.
Para el caso de una matriz A = (a) ∈ F1×1 tenemos que S1 = {id} y por ende
detA = a.
Cuando n = 2 tenemos que S2 = {(1, 2), (2, 1)}, en donde sg((1, 2)) = sg(id) = 1 y
sg((2, 1)) = −1, pues (2, 1) = τ1,2 es una trasposición. Luego, si
A =
(
a11 a12
a21 a22
)
tendremos que
detA =
∑
σ∈S2
sg(σ)a1σ(1)a2σ(2)
= sg((1, 2)a11a22 + sg((2, 1))a12a21
= a11a22 − a12a21.
Esta fórmula a veces se escribe como
det
(
a b
c d
)
= ad− bc.
Estudiemos ahora el caso de matrices 3 × 3. Notemos que para n = 3, la suma (2.1)
tiene 6 sumandos pues |S3| = 3! = 6. Más precisamente,
S3 = {(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)}.
Pero para calcular el determinante de una matriz 3 × 3 no solo debemos conocer todas
las permutaciones de 3 elementos, sino también sus signos. Para hacer esto notemos que:
(1, 2, 3) = id⇒ sg((1, 2, 3)) = 1,
(1, 3, 2) = τ2,3 ⇒ sg((1, 3, 2)) = −1,
(2, 1, 3) = τ1,2 ⇒ sg((2, 1, 3))− 1,
(2, 3, 1) = τ2,3 ◦ τ1,3 ⇒ sg((2, 3, 1)) = 1,
(3, 1, 2) = τ1,2 ◦ τ1,3 ⇒ sg((3, 1, 2)) = 1,
(3, 2, 1) = τ1,3 ⇒ sg((3, 2, 1)) = −1.
15
Luego, si
A =
a11 a12 a13a21 a22 a23
a31 a32 a33
 ,
entonces
detA =
∑
σ∈S3
sg(σ)a1σ(1)a2σ(2)a3σ(3)
= sg((1, 2, 3))a11a22a33 + sg((1, 3, 2))a11a23a32 + sg((2, 1, 3))a12a21a33
+ sg((2, 3, 1))a12a23a31 + sg((3, 1, 2))a13a21a32 + sg((3, 2, 1))a13a22a31.
Reemplazando los signos de las permutaciones por los calculados más arriba y reorde-
nando los sumandos, se obtiene la fórmula
detA = a11a22a33 + a12a23a31 + a13a21a32 − a11a23a32 − a12a21a33 − a13a22a31. (2.2)
Nota 2.11. El determinante de una matriz 3 × 3 puede calcularse mediante una regla
nemotécnica llama regla de Sarrus. El procedimiento es el siguiente: primero hay que
disponer un arreglo de cinco filas que consiste de las tres filas de la matriz A, agregando
como cuarta y quintafilas la primera y la segunda fila de A respectivamente. O sea,
a11 a12 a13
a21 a22 a23
a31 a32 a33
− ↙ a11 a12 a13 ↘ +
− ↙ a21 a22 a23 ↘ +
− ↙ ↘ +
y luego se suman los productos de los elementos en las diagonales (de izquierda a derecha
en dirección sudeste) y se restan los productos de los elementos en las antidiagonales (de
derecha a izquierda en dirección sudoeste). Aśı se obtiene
detA = a11a22a33 + a21a32a13 + a31a12a23 − a13a22a31 − a23a32a11 − a33a12a21.
Observar que esta fórmula coincide, reordenando sumandos e intercambiando factores,
con la que dedujimos en (2.2).
A continuación derivamos propiedades importantes de la función determinante.
Proposición 2.12. Si I ∈ Fn×n es la matriz identidad, entonces det I = 1.
Demostración. Por definición tenemos que
det I =
∑
σ∈Sn
sg(σ)
n∏
i=1
Iiσ(i),
pero Iiσ(i) 6= 0 si y sólo si σ(i) = i, y en tal caso se tiene Iii = 1. Luego, la suma anterior
tiene un único sumando no nulo, el correspondiente a σ = id, por tanto
det I = sg(id)
n∏
i=1
Iii = 1.
16
Ejercicio 2.13. Usando la misma idea que en la demostración de la Proposición 2.12,
probar que si A ∈ Fn×n es una matriz diagonal entonces detA = A11A22 · · ·Ann.
Proposición 2.14. Si A ∈ Fn×n entonces,
detA = detAt.
Demostración. Para calcular detA se deben sumar todos los posibles factores que uno
puede armar eligiendo un elemento en cada fila de A y cubriendo todas las columnas,
multiplicando cada factor por el signo de la permutación usada para elegir las columnas.
Es claro que armar un factor que tenga un elemento de cada fila y cada columna es lo
mismo que armar un factor que tenga un elemento de cada columna y cada fila. Más aún,
la permutación de las columnas que usamos para armar un factor dado, tiene el mismo
signo que la permutación de las filas con respecto a esas columnas. Más precisamente,
sg(σ)A1σ(1)A2σ(2) · · ·Anσ(n) = sg(σ−1)Aσ−1(1)1Aσ−1(2)2 · · ·Aσ−1(n)n
= sg(σ−1)(At)1σ−1(1)(A
t)2σ−1(2) · · · (At)nσ−1(n).
Luego
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i) =
∑
σ−1∈Sn
sg(σ−1)
n∏
i=1
(At)iσ−1(i) = detA
t.
Proposición 2.15. Si A ∈ Fn×n tiene dos columnas (o filas) iguales, entonces
detA = 0.
Demostración. Supongamos primero que A tiene dos columnas iguales, digamos la co-
lumna k es igual a la columna j con k < j. Esto quiere decir que aik = aij para todo
i = 1, . . . , n. Dada σ ∈ Sn, sea σ̃ = τk,j ◦ σ. Se tiene que
A1σ(1)A2σ(2) · · ·Anσ(n) = A1σ̃(1)A2σ̃(2) · · ·Anσ̃(n),
pues σ(i) = k implica σ̃(i) = j y por tanto Aiσ(i) = Aiσ̃(i). Análogamente Ajσ(j) = Ajσ̃(j)
y Akσ(k) = Akσ̃(k) para k 6= i, j. Además
sg(σ̃) = sg(τk,j ◦ σ) = sg(τk,j) sg(σ) = − sg(σ).
Por ende
sg(σ)
n∏
i=1
Aiσ(i) + sg(σ̃)
n∏
i=1
Aiσ̃(i) = 0.
Aśı, los sumandos en la fórmula
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i)
se van cancelando de a pares, de donde se concluye que detA = 0. Para justificar este últi-
mo paso observemos que Sn se descompone como la unión disjunta de las permutaciones
pares y las permutaciones impares: Sn = S
par
n ∪ Simparn . Más aún, dada la transposición
17
τk,j, los subconjuntos de transposiciones pares e impares se relacionan de la siguiente
forma: σ ∈ Sparn ⇐⇒ τk,j ◦ σ = σ̃ ∈ Simparn . Además, es claro que τk,j ◦ σ1 = τk,j ◦ σ2 si y
sólo si σ1 = σ2. Luego,
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i)
=
∑
σ∈Sparn
sg(σ)
n∏
i=1
Aiσ(i) +
∑
σ∈Simparn
sg(σ)
n∏
i=1
Aiσ(i)
=
∑
σ∈Sparn
sg(σ)
n∏
i=1
Aiσ(i) +
∑
σ∈Sparn
sg(σ̃)
n∏
i=1
Aiσ̃(i)
=
∑
σ∈Sparn
[
sg(σ)
n∏
i=1
Aiσ(i) + sg(σ̃)
n∏
i=1
Aiσ̃(i)
]
= 0.
Finalmente, si A tiene dos filas iguales, entonces At tiene dos columnas iguales. Por lo
que acabamos de ver, y usando la Proposición 2.14, tenemos que detA = detAt = 0.
Notación. En lo que sigue usaremos la siguiente convención para describir una matriz en
términos de sus columnas o filas. En primer lugar si C1, C2, . . . , Cn ∈ Fn×1 son vectores
columna, denotaremos por
A = (C1C2 · · · Cn)
la matriz cuyas columnas son C1, C2, . . . , Cn. En tanto que si F1, F2, . . . , Fn ∈ F1×n son
vectores fila, denotaremos por
A =

F1
F2
...
Fn

la matriz cuyas filas son F1, F2, . . . , Fn.
Proposición 2.16. Sean A1, A2, . . . , An ∈ Fn×1 vectores columna y sea α ∈ F. Entonces
det(A1 · · · αAk · · · An) = α det(A1 · · · Ak · · · An).
En otras palabras, si A ∈ Fn×n y A′ es la matriz que se obtiene de A multiplicando la
k-ésima columna por α, entonces
detA′ = α detA.
Demostración. Observemos que
A′ij =
{
Aij si j 6= k
αAik si j = k.
18
Luego, dada σ ∈ Sn, se tiene
A′1σ(1)A
′
2σ(2) · · ·A′nσ(n) = αA1σ(1)A2σ(2) · · ·Anσ(n)
y por tanto
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
A′iσ(i) = α
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i) = α detA.
Ejercicio 2.17. Usando la proposición anterior, probar que:
1. si α ∈ Fn×n y α ∈ F, entonces det(αA) = αn detA;
2. si A ∈ Fn×n tiene una columna (o fila) nula, entonces detA = 0.
Corolario 2.18. Sean A1, . . . , An ∈ F1×n vectores fila y sea α ∈ F. Entonces
det

A1
...
αAk
...
An
 = α det

A1
...
Ak
...
An
 .
En otras palabras, si A ∈ Fn×n y A′ es la matriz que se obtiene de A multiplicando la
k-ésima fila por α, entonces
detA′ = α detA.
Demostración. Ejercicio (aplicar la Proposición 2.16 a la matriz At).
Ejemplo 2.19. Se pueden usar los resultados anterior para calcular el determinante de
una matriz diagonal sin usar la definición:
det
a 0 00 b 0
0 0 c
 = a det
1 0 00 b 0
0 0 c
 = ab det
1 0 00 1 0
0 0 c
 = abc det
1 0 00 1 0
0 0 1
 = abc.
Proposición 2.20. Sea A ∈ Fn×n y sean A1, . . . , An ∈ Fn×1 las columnas de A. Supon-
gamos que Ak = Bk + Ck y sean las matrices
B = (A1 · · ·Ak−1Bk Ak+1 · · ·An), C = (A1 · · ·Ak−1Ck Ak+1 · · ·An).
Entonces
detA = detB + detC.
Demostración. Denotemos
Bk =

B1k
B2k
...
Bnk
 , Ck =

C1k
C2k
...
Cnk
 ,
19
de donde sigue que
Bij =
{
Aij si j 6= k
Bik si j = k,
Cij =
{
Aij si j 6= k
Cik si j = k.
Luego, si σ ∈ Sn, tenemos que
A1σ(1)A2σ(2) · · ·Anσ(n) = B1σ(1)B2σ(2) · · ·Bnσ(n) + C1σ(1)C2σ(2) · · ·Cnσ(n)
pues siempre existe un ` ∈ J1, nK tal que σ(`) = k, y aśı A`σ(`) = B`σ(`)+C`σ(`). Finalmente
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i) =
∑
σ∈Sn
sg(σ)
[
n∏
i=1
Biσ(i) +
n∏
i=1
Ciσ(i)
]
=
∑
σ∈Sn
sg(σ)
n∏
i=1
Biσ(i) +
∑
σ∈Sn
sg(σ)
n∏
i=1
Ciσ(i) = detB + detC.
Corolario 2.21. Sea A ∈ Fn×n y sean A1, . . . , An ∈ F1×n las filas A. Supongamos que
Ak = Bk + Ck y sean las matrices B cuyas filas son A1, . . . , Ak−1, Bk, Ak+1, . . . An, y C
cuyas filas son A1, . . . , Ak−1, Ck, Ak+1, . . . An. Entonces
detA = detB + detC.
Demostración. Ejercicio.
Corolario 2.22. Sean A1, . . . , An ∈ Fn×1, entonces
det(A1 · · · Aj︸︷︷︸
columna i
· · · Ai︸︷︷︸
columna j
· · ·An) = − det(A1 · · · Ai︸︷︷︸
columna i
· · · Aj︸︷︷︸
columna j
· · ·An).
En otras palabras, si A ∈ Fn×n y A′ es la matriz que se obtiene de A intercambiando la
i-ésima columna con la j-ésima columna, con i 6= j, entonces
detA′ = − detA.
Demostración. Consideremos la matriz
à = (A1 · · · (Ai + Aj) · · · (Ai + Aj) · · · An),
o sea, Ã es la matriz cuyas columnas i y j son iguales a Ai + Aj y por lo tanto tiene
determinante nulo. Además, usando las Proposiciones 2.20 y 2.15 obtenemos que
0 = det à = det(A1 · · · (Ai + Aj) · · · (Ai + Aj) · · · An)
= det(A1 · · · Ai · · · (Ai + Aj) · · · An) + det(A1 · · · Aj · · · (Ai + Aj) · · · An)
= det(A1 · · · Ai · · · Ai · · · An) + det(A1 · · · Ai · · · Aj · · · An)
+ det(A1 · · · Aj · · · Ai · · · An) + det(A1 · · · Aj · · · Aj · · · An)
= det(A1 · · · Ai · · · Aj · · · An) + det(A1 · · · Aj · · · Ai · · · An),
de donde se concluye que
det(A1 · · · Aj · · · Ai · · · An) = − det(A1 · · · Ai · · · Aj · · · An).
20
Ejercicio 2.23. Enunciar y demostrar el resultado análogo para el intercambio de filas.
Proposición 2.24. Sea A ∈ Fn×n y sea A′ la matriz que se obtiene de A sumando a la
j-ésima columna un múltiplo de la k-ésima columna, con j 6= k. Entonces
detA′ = detA.
Demostración. Supongamos sin perder generalidad que j < k. Denotemos por A1, .. . , An
las columnas de la matriz A. Entonces
A′ = (A1 · · · Aj−1 (Aj + αAk)Aj+1 · · · Ak · · · An)
para cierto α ∈ F. Luego, usando las Proposiciones 2.15, 2.16 y 2.20 tenemos que
detA′ = det(A1 · · · Aj−1 (Aj + αAk)Aj+1 · · · Ak · · · An)
= det(A1 · · · Aj−1Aj Aj+1 · · · Ak · · · An)
+ det(A1 · · · Aj−1 αAk Aj+1 · · · Ak · · · An)
= detA+ α det(A1 · · · Aj−1Ak Aj+1 · · · Ak · · · An)
= detA.
Ejercicio 2.25. Enunciar y demostrar el resultado análogo para operaciones sobre las
filas de la matriz.
Con los resultados anteriores el calculo del determinante se simplifica drásticamente.
Ejemplo 2.26. Calculemos el determinante de la matriz
A =

0 1 −2 0
1 4 0 3
2 1 −2 5
1 0 2 3
 .
La idea es “mejorar” la matriz A aplicando las operaciones de intercambio de filas o
columnas y sumando o restando a una fila/columna un múltiplo de otra fila/columna.
Como ya demostramos, al hacer intercambios de filas o columnas, el determinante cambia
de signo, en tanto que si a una fila o columna le sumamos un múltiplo de otra, el deter-
minante no cambia. Para justificar las operaciones que usamos en cada paso usaremos
la siguiente notación. Para el intercambio de filas o columnas escribiremos, por ejemplo,
f1 ↔ f2 para indicar que intercambiamos la fila 1 con la fila 2, en tanto que c2 ↔ c4
indica que intercambiamos la columna 2 con la columna 4. Por otro lado, la notación
f3 → f3− 2f1 significa que reemplazamos la fila 3 por la fila 3 menos 2 veces la fila 1.
21
Aclarado esto, tenemos que
detA
f1↔f2
= − det

1 4 0 3
0 1 −2 0
2 1 −2 5
1 0 2 3
 f3→f3−2f1= − det

1 4 0 3
0 1 −2 0
0 −7 −2 −1
1 0 2 3

f4→f4−f1
= − det

1 4 0 3
0 1 −2 0
0 −7 −2 −1
0 −4 2 0
 c2↔c4= det

1 3 0 4
0 0 −2 1
0 −1 −2 −7
0 0 2 −4

f2↔f3
= − det

1 3 0 4
0 −1 −2 −7
0 0 −2 1
0 0 2 −4
 f4↔f4+f3= − det

1 3 0 4
0 −1 −2 −7
0 0 −2 1
0 0 0 −3

Luego hemos mostrado que el determinante de A es igual al determinante de una matriz
triangular superior, los cuales son muy fáciles de calcular usando la siguiente proposición.
Proposición 2.27. Si A ∈ Fn×n es triangular superior, entonces
detA = A11A22 · · ·Ann.
Demostración. Una matriz triangular superior tiene la forma
A =

A11 A12 · · · A1n
0 A22 · · · A2n
...
...
. . .
...
0 0 · · · Ann
 ,
es decir Aij = 0 si i > j. Ahora bien, para σ ∈ Sn, σ 6= id, siempre existe un i tal
que i > σ(i). En efecto, si esto no sucediera, se tendŕıa n ≤ σ(n) ≤ n, de donde sigue
σ(n) = n. Luego n−1 ≤ σ(n−1) ≤ n−1, lo cual implica σ(n−1) = n−1. Aśı siguiendo,
se obtiene que σ(i) = i para todo i = 1, . . . , n. Absurdo, pues supusimos σ 6= id. Esto dice
que en la definición de detA todos los sumandos correspondientes a σ 6= id son nulos,
por tanto
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i) = sg(id)
n∏
i=1
Aii =
n∏
i=1
Aii
como queŕıamos probar.
Ejemplo 2.26 (continuación). Usando el resultado anterior concluimos que
detA = − det

1 3 0 4
0 −1 −2 −7
0 0 −2 1
0 0 0 −3
 = −(1 · (−1) · (−2) · (−3)) = 6.
Una de las propiedades más importantes de la función determinante es la siguiente.
22
Teorema 2.28. Si A,B ∈ Fn×n, entonces
det(AB) = (detA)(detB).
Demostración. La veremos más adelante.
Definición 2.29. Una matriz A ∈ Fn×n se dice invertible si existe B ∈ Fn×n tal que
AB = BA = I. En caso de que exista una tal B, ésta se llama la matriz inversa de A y
se denota por B = A−1.
Observación 2.30. Si A ∈ Fn×n es invertible, entonces la inversa es única. En efecto,
supongamos que existen B,C ∈ Fn×n tales que BA = AB = I = CA = AC. Sigue que
B = BI = BAC = IC = C.
Ejemplo 2.31. 1. La matriz identidad es invertible. ¿Por qué?
2. La matriz nula no es invertible. ¿Por qué?
Ejemplo 2.32. ¿Cuándo es invertible una matriz 2 × 2? Si A =
(
a b
c d
)
es invertible,
entonces existe una matriz B =
(
e f
g h
)
tal que
(
a b
c d
)(
e f
g h
)
=
(
1 0
0 1
)
lo cual es equivalente al siguiente sistema de cuatro ecuaciones con cuatro incógnitas (las
incógnitas son e, f, g, h):
ae+ bg = 1 (2.3)
af + bh = 0 (2.4)
ce+ dg = 0 (2.5)
cf + dh = 1 (2.6)
Si multiplicamos la ecuación (2.3) por d y le restamos b veces la ecuación (2.5) obtenemos
d(ae+ bg)− b(ce+ dg) = (ad− bc)e = d.
Trabajando análogamente con las ecuaciones (2.4) y (2.6) obtenemos que
d(af + bh)− b(cf + dh) = (ad− bc)f = −b
a(ce+ dg)− c(ae+ bg) = (ad− bc)g = −c
a(cf + dh)− c(af + bh) = (ad− bc)h = a,
de donde sigue que si detA = ad− bc 6= 0 entonces el sistema tiene solución y la matriz
inversa es
B =
1
ad− bc
(
d −b
−c a
)
.
23
Corolario 2.33. Una matriz A ∈ Fn×n es invertible si y sólo si detA 6= 0. Más aún, si
A es invertible, entonces detA−1 = (detA)−1.
Demostración. Si A es invertible entonces existe la inversa A−1 de A y vale AA−1 = I.
Luego por el Teorema 2.28 se tiene 1 = det I = detA detA−1, por ende, tanto detA
como detA−1 deben ser no nulos. Notar que esta ecuación también implica que detA−1 =
(detA)−1.
La rećıproca la probaremos en el próximo apartado, cuando exhibamos un método
para calcular la matriz inversa de una matriz A tal que detA 6= 0.
2.1. Desarrollo del determinante por filas o columnas
En este apartado presentamos un método alternativo para el cálculo del determinante.
Dicho método no presenta ninguna ventaja sobre la Definición 2.10 en lo que respecta a
la complejidad de cálculo, pero śı tiene importancia teórica como veremos en breve.
Definición 2.34. Sea A ∈ Fn×n y sean i, j ∈ J1, nK. Se define A(i|j) como la matriz
(n − 1) × (n − 1) que se obtiene suprimiendo la i-ésima fila y la j-ésima columna de la
matriz A.
Ejemplo 2.35. Si
A =

0 1 −2 0
1 4 0 3
2 1 −2 5
1 0 2 6
 ,
entonces
A(1|1) =
4 0 31 −2 5
0 2 6
 , A(1|3) =
1 4 32 1 5
1 0 6
 , A(3|2) =
0 −2 01 0 3
1 2 6
 .
Más aún, el proceso se puede repetir,
A(1|1)(2|3) =
(
4 0
0 2
)
, A(1|1)(2|3)(2|2) = 4.
A continuación presentamos una fórmula recursiva para el cálculo de la función de-
terminante.
Teorema 2.36 (Desarrollo del determinante por la primera fila). Si A ∈ Fn×n, entonces
detA =
n∑
j=1
(−1)1+jA1j detA(1|j).
Antes de hacer la prueba del teorema veamos, a modo de ejemplo, algunos casos
particulares.
24
Ejemplo 2.37. Calculemos, usando el Teorema 2.36, el determinante de
A =
(
a11 a12
a21 a22
)
.
En efecto,
detA = a11 detA(1|1)− a12 detA(1|2) = a11a22 − a12a21.
También podemos calcular el determinante de una matriz 3× 3 usando determinantes de
matrices 2× 2. Si
A =
a11 a12 a13a21 a22 a23
a31 a32 a33
 ,
entonces
detA = a11 detA(1|1)− a12 detA(1|2) + a13 detA(1|3)
= a11
(
a22 a23
a32 a33
)
− a12
(
a21 a23
a31 a33
)
+ a13
(
a21 a22
a31 a32
)
= a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31)
= a11a22a33 + a12a23a31 + a13a21a32 − a11a23a32 − a12a21a33 − a13a22a31.
Demostración del Teorema 2.36. Observemos que el conjunto de todas las permutacio-
nes de n elementos, puede describirse como la unión disjunta de las permutaciones que
mandan el 1 a un elemento especificado j ∈ J1, nK. Más precisamente, si llamamos
Sjn = {σ ∈ Sn : σ(1) = j},
entonces se tiene
Sn = S
1
n ∪ S2n ∪ · · · ∪ Snn
y esta unión es disjunta, es decir, Sjn ∩Skn = ∅, si j 6= k. Ahora bien, un elemento σ ∈ Sjn
puede pensarse como una permutación de n − 1 elementos, o sea, como un elemento de
Sn−1. En efecto, sabemos que todos los elementos de S
j
n mandan 1 en j, luego, pode-
mos pensar que los elementos de Sjn permutan los números {1, 2, . . . , j − 1, j + 1, . . . , n}.
Esto puede formalizarse diciendo que a cada elemento σ ∈ Sjn le corresponde un único
elemento σj ∈ Sn−1. Esta identificación puede resultar un poco dif́ıcil de entender, pues
σ ∈ Sjn permuta los elementos {1, 2, . . . , j−1, j+1, . . . , n}, pero σj permuta los elementos
{1, 2, . . . , n− 1}. Veamos unos ejemplos para clarificar esta noción. Consideremos la per-
mutación σ ∈ S37 dada por σ = (3, 2, 1, 6, 5, 4, 7). Luego σ(1) = 3 y σ reordena la 6-upla
(1, 2, 4, 5, 6, 7) en (2, 1, 6, 5,4, 7). O sea, el 1er elemento va al 2do lugar, el 2do elemento
va al 1er lugar, el 3er elemento va al 5to lugar, el 4to elemento va al 4to lugar, el 5to
elemento va al 3er lugar y el 6to elemento va al 6to lugar. Luego, la identificación en este
caso seŕıa
σ = (3, 2, 1, 6, 5, 4, 7)←→ σ3 = (2, 1, 5, 4, 3, 6).
Otro ejemplo: ¿qué permutación σ ∈ S37 corresponde a la permutación id ∈ S6? En este
caso debeŕıa ser σ(1) = 3 pero σ tiene que mantener el orden de los restantes elementos
(1, 2, 4, 5, 6, 7). Luego
σ = (3, 1, 2, 4, 5, 6, 7)←→ σ3 = (1, 2, 3, 4, 5, 6) = id .
25
La pregunta clave en la demostración del teorema es: dada σ ∈ Sjn, ¿cuál es el signo de
la permutación σj ∈ Sn−1? Para responder esta pregunta, observemos que para calcular
sg(σ) uno debe expresar σ como una composición de trasposiciones, o dicho de otra
manera, necesitamos contar la cantidad de intercambios de dos elementos necesarios para
llegar de (1, 2, . . . , n) a (σ(1), σ(2), . . . , σ(n)). En tanto que, al ser σ(1) = j, para calcular
el signo de σj uno tiene contar la cantidad de intercambios de dos elementos necesarios
para pasar de (1, 2, . . . , j−1, j+1, . . . , n) a (σ(2), σ(3), . . . , σ(n)). Ahora bien, la relación
entre sg(σ) y sg(σj) viene dada como sigue: para pasar de (1, 2, . . . , n) a
(σ(1), σ(2), . . . , σ(n)) = (j, σ(2), . . . , σ(n))
uno puede hacer primero j − 1 intercambios para pasar de (1, 2, . . . , n) a (j, 2, 3, . . . , n)
y luego hacer los intercambios necesarios sobre los últimos elementos para transformar
(j, 2, 3, . . . , n) en (j, σ(2), σ(3), . . . , σ(n)). Por tanto
sg(σ) = (−1)j−1 sg(σj) = (−1)1+j sg(σj).
Hechas estas consideraciones, podemos completar la prueba del teorema. En efecto,
detA =
∑
σ∈Sn
sg(σ)
n∏
i=1
Aiσ(i) =
n∑
j=1
∑
σ∈Sjn
sg(σ)
n∏
i=1
Aiσ(i)
=
n∑
j=1
∑
σ∈Sjn
sg(σ)A1j
n∏
i=2
Aiσ(i)
=
n∑
j=1
∑
σj∈Sn−1
(−1)1+j sg(σj)A1j
n−1∏
i=1
A(1|j)iσj(i)
=
n∑
j=1
(−1)1+jA1j
∑
σj∈Sn−1
sg(σj)
n−1∏
i=1
A(1|j)iσj(i)
=
n∑
j=1
(−1)1+jA1j detA(1|j).
Observación 2.38. En algunos libros de texto el determinante se define recursivamente
usando la fórmula del Teorema 2.36. Es decir, para matrices A ∈ F1×1 = F, se define
detA = A y luego, dado n ∈ N, se define el determinante de una matriz A ∈ F(n+1)×(n+1)
como
detA =
n+1∑
j=1
(−1)1+jA1j detA(1|j).
Como el determinante de una matriz es igual al determinante de su transpuesta y
el determinante cambia de signo si en una matriz intercambiamos filas o columnas, se
pueden deducir fórmulas para el desarrollo del determinante por cualquier fila o columna
de la matriz. Queda como ejercicio hacer las demostraciones de los siguientes resultados.
Corolario 2.39 (Desarrollo del determinante por la i-ésima fila). Sean A ∈ Fn×n, e
i ∈ J1, nK. Entonces
detA =
n∑
j=1
(−1)i+jAij detA(i|j).
26
Corolario 2.40 (Desarrolo del determinante por la j-ésima columna). Sean A ∈ Fn×n,
y j ∈ J1, nK. Entonces
detA =
n∑
i=1
(−1)i+jAij detA(i|j).
A continuación mostramos un método para calcular la inversa de una matriz A (si es
que ésta existe).
Definición 2.41. Sea A ∈ Fn×n, el escalar Cij = (−1)i+j detA(i|j) se llama el cofactor
i, j de A. La matriz C = (Cij) se llama matriz de los cofactores de A.
Definición 2.42. La matriz adjunta de A ∈ Fn×n, denotada por adjA, es la matriz
transpuesta de la matriz de los cofactores de A. Es decir, el lugar i, j de adjA está dado
por el cofactor j, i de A:
(adjA)ij = (−1)i+j detA(j|i).
Teorema 2.43. Si A ∈ Fn×n, entonces
A adjA = (adjA)A = (detA)I
Demostración. Debemos probar que (A adjA)ij = ((adjA)A)ij = (detA)δij, en donde δij
es la delta de Kronecker (vale 1 si i = j y 0 si i 6= j). Probaremos que (A adjA)ij = δij,
dejando como ejercicio el comprobar que ((adjA)A)ij = δij. Para ello, calculamos la
matriz producto A adjA por definición. En primer lugar, si i 6= j tenemos que
(A adjA)ij =
n∑
k=1
Aik(adjA)kj =
n∑
k=1
(−1)k+jAik detA(j|k) = detA′n,
usando el Corolario 2.39, en donde A′ es la matriz tal que (A′)ik = (A
′)jk para todo
k = 1, . . . , n y tiene todas sus otras entradas iguales a las entradas de A. Pero en A′,
la columna i es igual a la columna j, luego, por la Proposición 2.15, se tiene que 0 =
detA′ = (A adjA)ij.
Finalmente,
(A adjA)ii =
n∑
k=1
Aik(adjA)ki =
n∑
k=1
(−1)i+kAik detA(i|k) = detA,
nuevamente por el Corolario 2.39, lo cual concluye la prueba del teorema.
Usando el teorema anterior podemos completar la prueba del Corolario 2.33. De hecho,
podemos encontrar una fórmula para la matriz inversa de una matriz invertible.
Corolario 2.44. Sea A ∈ Fn×n tal que detA 6= 0. Entonces A es invertible y vale
A−1 =
1
detA
adjA.
Demostración. Es inmediato del teorema anterior que si detA 6= 0, entonces(
1
detA
adjA
)
A = A
(
1
detA
adjA
)
= I.
27
Se dice que una matriz A ∈ Fn×n tiene una inversa a izquierda (resp. a derecha) si
existe B ∈ Fn×n tal que BA = I (resp. AB = I).
Corolario 2.45. Si A ∈ Fn×n tiene una inversa a izquierda (resp. a derecha) entonces
A es invertible.
Demostración. Supongamos que existe B ∈ Fn×n tal que BA = I. Sigue que
1 = det(BA) = (detB)(detA)
y en particular detA 6= 0. Luego A es invertible por el corolario anterior. El caso en el
que A admite una inversa a derecha es análogo.
Ejemplo 2.46. Consideremos la matriz
A =
(
a b
c d
)
.
La matriz de los cofactores de A es(
(−1)1+1 detA(1|1) (−1)1+2 detA(1|2)
(−1)2+1 detA(2|1) (−1)2+2 detA(2|2)
)
=
(
d −c
−b a
)
.
Luego, si ad− bc 6= 0, entonces A es invertible y su inversa viene dada por
A−1 =
1
ad− bc
(
d −b
−c a
)
.
Ejemplo 2.47. Decidir si la matriz
A =
1 2 −10 2 5
2 −1 4

es invertible y calcular su inversa en caso afirmativo. Calculamos primero la matriz de
los cofactores de A, para esto, necesitamos calcular detA(i|j) para todos i, j = 1, 2, 3.
detA(1|1) =
∣∣∣∣ 2 5−1 4
∣∣∣∣ = 13, detA(1|2) = ∣∣∣∣0 52 4
∣∣∣∣ = −10, detA(1|3) = ∣∣∣∣0 22 −1
∣∣∣∣ = −4,
detA(2|1) =
∣∣∣∣ 2 −1−1 4
∣∣∣∣ = 7, detA(2|2) = ∣∣∣∣1 −12 4
∣∣∣∣ = 6, detA(2|3) = ∣∣∣∣1 22 −1
∣∣∣∣ = −5,
detA(3|1) =
∣∣∣∣2 −12 5
∣∣∣∣ = 12, detA(3|2) = ∣∣∣∣1 −10 5
∣∣∣∣ = 5, detA(3|3) = ∣∣∣∣1 20 2
∣∣∣∣ = 2.
Luego la matriz de los cofactores de A y la matriz adjunta están dadas por
C =
13 10 −4−7 6 5
12 −5 2
 , adjA =
13 −7 1210 6 −5
−4 5 2
 .
28
Para chequear si A es invertible debeŕıamos calcular detA, pero observemos que con lo
ya obtenido, esta cuenta puede hacerse como
A(adjA) =
1 2 −10 2 5
2 −1 4
13 −7 1210 6 −5
−4 5 2
 =
37 0 00 37 0
0 0 37
 .
Luego detA = 37 6= 0 y por lo tanto A es invertible con inversa
A−1 =
1
37
13 −7 1210 6 −5
−4 5 2
 .
El método que desarrollamos para el cálculo de la inversa de una matriz resulta muy
tedioso de aplicar y nada eficiente para matrices de tamaño grande. En la próxima unidad
desarrollaremos un métodos más eficientes, tanto para el calculo del determinante como
para encontrar la inversa de una matriz invertible.
Comentario. El permanente de una matriz A ∈ Fn×n se define de manera análoga al
determinante, sumando todos los factores que se pueden armar eligiendo un elemento
en cada fila recorriendo todas las columnas, pero sin tener en cuenta el signo de la
permutación de las columnas, es decir,
permA =
∑
σ∈Sn
n∏
i=1
Aiσ(i).
Por ejemplo,
perm
(
a b
c d
)
= ad+ bc,
perm
a b cd e f
g h i
 = aei+ afh+ bdi+ bfh+ cdh+ ceg.
Con las mismas técnicas que aprendimos en esta unidad, uno puede probar que el
permanente comparte algunas propiedades con el determinante, por ejemplo permA =
permAt, o que si uno multiplica la columna k de A por el escalar α y llama A′ a esta
nueva matriz, entonces permA′ = α permA. Pero otras propiedades ya no son válidas, por
ejemplo, si una matriz A tiene dos columnas iguales, no necesariamente vale permA = 0.
Tampoco es cierto que perm(AB) = (permA)(permB) para todas A,B ∈ Fn×n. En
efecto,
4 = perm
(
1 1
1 1
)
perm
(
1 1
1 1
)
6= perm
((
1 1
1 1
)(
1 1
1 1
))
= perm
(
2 2
2 2
)
= 8.
Es la falta de estas propiedades la que hace que el permanente,si bien tiene una defi-
nición similar al determinante, sea mucho más dif́ıcil de calcular. En efecto, si uno utiliza
la definición, tanto para el permanente como para el determinante deben realizarse n!n
operaciones sobre los coeficientes de la matriz (porque tenemos n! sumandos de productos
29
de n elementos). Sin embargo, para calcular el determinante de una matriz uno puede rea-
lizar operaciones por fila y columna para transformarla en una matriz triangular superior.
Puede verse (como lo probaremos en la próxima unidad y quizás ya podamos intuirlo de
los ejemplos en esta unidad) que la cantidad necesaria de operaciones para pasar de una
matriz arbitraria a una matriz triangular superior es del orden de n3. Es por esto que se
dice que el cálculo del determinante de una matriz es un problema que puede resolverse
en tiempo polinomial, o que tiene complejidad O(n3), pues n3 es un polinomio de grado
3 en el número de operaciones necesarias para calcular el determinante. Estas considera-
ciones no son ciertas para el cálculo del permanente, de hecho se cree que el problema de
calcular el permanente de una matriz no puede resolverse en tiempo polinomial.
Observar que n!n es mucho más grande que n3 cuando n es suficientemente grande.
n n3 n!n
1 1 1
2 8 4
3 27 18
4 64 96
5 125 600
6 216 4320
7 343 35280
8 512 322560
9 729 3265920
10 1000 36288000
15 3375 19615115520000
20 8000 48658040163532800000
30
	Matrices
	Operaciones entre matrices
	Determinantes
	Desarrollo del determinante por filas o columnas

Continuar navegando

Materiales relacionados

29 pag.
tut_sems1-2-3_alglin

User badge image

yosmar sanchez

25 pag.
Capitulo5

SIN SIGLA

User badge image

Isante T

14 pag.
78_15_29102019002917

SIN SIGLA

User badge image

Isante T

23 pag.
78_11_29102019002917

SIN SIGLA

User badge image

Isante T