Logo Studenta

Apuntes 1

¡Este material tiene más páginas!

Vista previa del material en texto

Apuntes de Econometría
Prof. Ricardo Guzmán
Ponti�cia Universidad Católica de Chile
Instituto de Economía
2do Semestre de 2006
Sección 1: Álgebra Lineal
De�niciones
Una matriz es una colección de elementos ordenados en
M �las y N columnas.
Sea A una matriz cualquiera. Denotamos por aij al ele-
mento de la matrizA que está en la �la i y en la columna
j deA. Alternativamente, decimos que aij ocupa la posi-
ción (i; j) en A.
Ejemplo:
A =
"
2 1 �2
0 �12 6
#
:
¿Qué valores toman a11, a22, a13 y a23?
Una matriz es cuadrada si M = N , es un vector colum-
na si N = 1 y es un vector �la si M = 1. Llamamos
escalares a las matrices de dimensión 1� 1.
Ejemplo: A es cuadrada, B es un vector columna y C
es un vector �la.
A =
"
2 1
0 1
#
; B =
"
�2
0
#
; C =
h
3 �1
i
:
La diagonal de una matriz cuadrada A está formada por
todos los elementos aij tales que i = j. Decimos que
una matriz es diagonal si todos los elementos fuera de su
diagonal son cero.
Ejemplo: A, B y C son matrices diagonales.
A =
264 2 0 00 �3 0
0 0 �
375 ; B = " 1 0
0 1
#
; C =
h
10
i
:
DenotamosA0 a la matriz transpuesta deA. El elemento
aij de A ocupa la posición (j; i) en A0. Por lo tanto, si
la dimensión de A es M � N , la dimensión de A0 es
N �M .
Ejemplo:
A =
264 2 �80 �3
1 3
375 ; A0 = ?
Una matriz es simétrica si es igual a su transpuesta o, lo
que es lo mismo, si aij = aji para todo i y j. Note que
sólo las matrices cuadradas pueden ser simétricas, y que
todas las matrices diagonales son simétricas.
Ejemplo: La matriz A es simétrica.
A =
264 �2 1 201 4 0
20 0 �
375 :
Operatoria de matrices
Suma de matrices
Sean A y B matrices deM �N . Entonces, C = A+B
si y sólo si cij = aij + bij para todo i y j.
Sólo pueden sumarse matrices de iguales dimensiones.
Ejemplo:26664
1 1 �1
3 4 0
�2 0 2
0 �1 5
37775+
26664
4 3 �1
�3 5 1
1 2 �1
�4 1 1
37775 =
26664
5 4 �2
0 9 1
�1 2 1
�4 0 6
37775 :
Producto escalar
Sea A una matriz de M �N y � un escalar. Entonces,
C = �A = A� si y sólo si cij = �aij para todo i y j.
Ejemplo:
2
26664
1 1 �1
3 4 0
�2 0 2
0 �1 5
37775 =
26664
2 2 �2
6 8 0
�4 0 4
0 �2 10
37775 :
Multiplicación de matrices
Sea A una matriz de L�M y B una matriz deM �N .
Entonces, C = AB si y sólo si cij =
PM
m=1 aimbmj.
Sólo pueden multiplicarse dos matrices cuando el número
de columnas de la primera es igual al número de �las de
la segunda.
Ejemplos:"
1 1 �1
3 4 0
# 264 2 11 �1
�1 0
375 = " 4 0
10 �1
#
;
"
1
3
# h
2 �1
i
=
"
2 �1
6 �3
#
;
h
2 2 �1
i 264 112
3
375 = h 0 i :
Salvo raras excepciones, la multiplicación de matrices no
es conmutativa.
Decimos que A es idempotente si AA = A.
Ejemplo:"
2 1
�2 �1
# "
2 1
�2 �1
#
=
"
2 1
�2 �1
#
:
Denotamos por IN a la matriz identidad de orden N .
Ésta es una matriz N�N de tal que todos los elementos
de su diagonal son 1 y todos los elementos fuera de su
diagonal son 0.
Ejemplos:
I1 =
h
1
i
; I2 =
"
1 0
0 1
#
; I3 =
264 1 0 00 1 0
0 0 1
375 :
La matriz identidad es el elemento neutro de la mul-
tiplicación de matrices: Sea A de M � N , entonces
AIN = IMA = A. Tarea: Demostrarlo.
Propiedades de la suma, producto escalar y multi-
plicación de matrices
1. A+B = B+A.
2. (A+B) +C = A+ (B+C).
3. (A+B)0 = A0 +B0.
4. �(A+B) = �A+ �B.
5. (AB)C = A(BC).
6. (AB)0 = B0A0.
Tarea: Demostrar las propiedades 1 a 6.
Combinación lineal
Un vector columna x es una combinación lineal de las
columnas de la matriz A si existe un vector columna c
tal que x = Ac.
Ejemplo: x es combinacion lineal de las columnas de A.
x =
264 32
0
375 ; A =
264 1 10 2
1 �2
375 :
Decimos que las columnas de A son linealmente inde-
pendientes (LI) si ninguna de ellas es combinación lineal
de las demás.
Ejemplo: Las columnas de A son LI. Las columnas de B
no lo son.
A =
264 1 1 30 2 2
1 �2 1
375 ; B =
264 1 1 �30 2 �2
1 �2 0
375 .
Traza de una matriz
La traza de una matriz cuadrada es la suma de los ele-
mentos de su diagonal.
Ejemplo:
tr
"
1 �1
0 2
#
= ?
Propiedades de la traza
1. tr(�A) = � tr(A).
2. tr(A) = tr(A0).
3. tr(A+B) = tr(A) + tr(B).
4. tr(ABC) = tr(BCA) = tr(CAB).
Tarea: Demostrar las propiedades 1 a 4.
Determinante de una matriz
El determinante de una matriz es una función que asocia
un número a toda matriz cuadrada. Se de�ne recursiva-
mente:
1. Si A es una matriz de 1 � 1, entonces su determi-
nante es igual al (único) elemento de A:
det (A) = a11:
2. Si A es una matriz de N�N , con N � 2, entonces
el determinante de A se de�ne de la siguiente ma-
nera:
det (A) =
NX
j=1
(�1)i+j aij det
�
A[�i;�j]
�
dondeA[�i;�j] es el cofactor del elemento aij, e i es
cualquier �la de la matrizA. El cofactor del elemento
aij es la matriz de que se obtiene al eliminar de A
la �la i y la columna j.
Ejemplos:
det
"
2 1
3 3
#
= 2 � 3� 1 � 3 = 3
det
"
0 1
1 3
#
= 0 � 3� 1 � 1 = �1
det
264 1 2 00 2 1
1 3 3
375 = 1det " 2 1
3 3
#
� 2 det
"
0 1
1 3
#
= 4
Propiedades de los determinantes
1. Para todo k 6= i,
NX
j=1
(�1)i+jakj det(A[�i;�j]) = 0:
2. det(A) = det(A0).
3. det(A) = 0 si y sólo si una �la (columna) de A es
combinación lineal de otras �las (columnas) de A.
4. det(AB) = det(A) det(B).
5. Si A es diagonal, entonces det(A) =
QN
i=1 aii.
6. det(�A) = �N det(A).
Matriz inversa
Sea A una matriz de N �N . Si existe una matriz B tal
que AB = I, entonces decimos que B es la inversa de
A.
Ejemplo: "
2 1
3 3
#�1
=
24 1 �13
�1 23
35 :
No todas las matrices de tienen inversa. A una matriz
que no tiene inversa se le llama singular. Si la inversa de
A existe, la denotamos A�1.
Calcular la inversa de A es lo mismo que resolver N
sistemas de N ecuaciones. Veamos por qué.
Sea B la inversa de A. Llamemos bj a la j-ésima colum-
na de B, y llamemos ej a un vector columna de largo
N cuyos elementos son todos cero, salvo su elemento j-
ésimo, que es un uno. Entonces, escribir AB = IN es
equivalente a escribir
A
h
b1 b2 ::: bN
i
=
h
e1 e2 ::: eN
i
:
El j-ésimo sistema de ecuaciones a resolver está dado por
la siguiente expresión:
Abj = ej.
Los coe�cientes del sistema están en la matriz A, las
N incógnitas son los elementos de bj y las constantes
son los elementos de ej. Si llamamos a0i a la i-ésima �la
de la matriz A, podemos escribir la i-ésima ecuación del
j-ésimo sistema de esta forma:
a0ibj =
(
1 si i = j
0 si i 6= j:
Las soluciones del j-ésimo sistema son:
bij = (�1)i+j
det
�
A[�i;�j]
�
det (A)
Para veri�carlo, reemplace las N soluciones de los N
sistemas en AB, y use las dos primeras propiedades de
los determinantes. Tarea: Hágalo.
Propiedades de la matriz inversa
1. La matriz A tiene inversa si y sólo si det (A) 6= 0.
2. La inversa por izquierda de una matriz es igual a su
inversa por derecha. Esto es, si AB = I y CA = I,
entonces A = B = A�1.
3. SiA yB tienen inversa, entonces (AB)�1 = B�1A�1
4. (A�1)0 = (A0)�1
5. Si A es diagonal, A�1 también lo es. Los elemen-
tos de la diagonal de A�1 son los inversos de los
elementos de diagonal de A.
6. det(A�1) = det (A)�1.
Tarea: Demostrar las propiedades 1 a 6.
Matrices particionadas
Sea A una matriz deM�N . Podemos particionar A de
la siguiente forma: "
A11 A12
A21 A22
#
:
donde Aij es una matriz de dimensión Mi �Nj, M1 +
M2 =M y N1 +N2 = N .
Ejemplo:26666664
2 2 2
6 8 0
4 0 4
0 2 1
1 2 1
37777775 =
266666664
264 2 26 8
4 0
375
264 20
4
375
"
0 2
1 2
# "
1
1
#
377777775
Operatoria de matrices particionadas
1. Suma:"
A11 A12
A21 A22
#
+
"
B11 B12
B21 B22
#
=
"
A11 +B11 A12 +B12
A21 +B21 A22 +B22
#
:
2. Producto escalar:
�
"
A11 A12
A21 A22
#
=
"
�A11 �A12
�A21 �A22
#
:
3. Multiplicación:"
A11 A12
A21 A22
# "
B11 B12
B21 B22
#
=
"
A11B11 +A12B21 A11B12 +A12B22
A21B11 +A22B21 A21B12 +A21B22
#
:
4. Inversa: "
A11 A12
A21 A22
#�1
=
"
B11 B12
B21 B22
#
;
donde
B11 =
�
A11 �A12A�122 A21
��1
;
B22 =
�
A22 �A21A�111 A12
��1
;
B12 = �A�111 A12B22;
B21 = �A�122 A21B11:
Tarea: demostrar las propiedades 1 a 4.
Rango de una matriz
SeaA una matriz deM�N . Sellama rango de la matriz
A al máximo número de �las (o columnas) linealmente
independientes de A.
Si rango (A) =M decimos que la matriz A es de rango
�la completo. Si rango (A) = N decimos que la matriz
A es de rango columna completo.
Ejemplos:
rango
264 2 26 8
4 0
375 = 2;
rango
"
2 1 �1
6 3 �3
#
= 1;
rango
"
2 �1
6 3
#
= 2:
Propiedades del rango
1. rango (A) � m��n fM;Ng :
2. Sea A una matriz de rango columna completo y B
una matriz cuadrada no singular. Entonces, AB es
una matriz de rango columna completo.
3. Si A es de rango completo, entonces A0A es inver-
tible.
Tarea: demostrar las propiedades 1 a 3.
Matrices de�nidas
Sea A una matriz de N �N y x un vector columna de
largo N . Consideremos la siguiente forma cuadrática de
A:
x0Ax =
NX
i=1
NX
j=1
aijxixj:
En general, una forma cuadrática puede ser un número
positivo, negativo o cero. A veces, sin embargo, tiene un
signo de�nido independiente del valor que tome x.
1. Si x0Ax (�)> 0 para todo x 6= 0, decimos que A
es una matriz (semi) de�nida positiva.
2. Si x0Ax (�)< 0 para todo x 6= 0, decimos que A
es una matriz (semi) de�nida negativa.
3. Sean A y B matrices de�nidas. Si x0(A�B)x > 0,
decimos que A > B:
Ejemplos:A es de�nida positiva,B es semi de�nida neg-
ativa y C no es ni semide�nida positiva ni semide�nida
negativa:
A =
"
2 1
1 4
#
B =
"
�1 1
1 �1
#
C =
"
1 3
2 4
#
Propiedades de las matrices de�nidas
1. SiA es de�nida positiva, entonces el productoP0AP
es una matriz semide�nida positiva. Si las colum-
nas de P son linealmente independientes, entonces
P0AP es de�nida positiva.
2. El productoP0P es una matriz semide�nida positiva.
Si las columnas deP son linealmente independientes,
entonces P0P es de�nida positiva.
3. Los elementos de la diagonal de una matriz de�nida
positiva (negativa) son todos positivos (negativos).
4. Si A y B son matrices de�nidas, y A > B, entonces
A�1 < B�1.
5. Si A es de�nida positiva (negativa), entonces A�1
es de�nida positiva (negativa).
Tarea: demostrar propiedades 1 a 5.
Valores y vectores propios
Sea A una matriz de N � N . Consideremos el siguien-
te sistema de ecuaciones, cuyas soluciones son el vector
columna c y el escalar �:
Ac = c�:
Note que, si c y � son soluciones del sistema anterior,
también lo son kc y �, para cualquier valor de k. Con el
�n de eliminar esa indeterminación normalizamos c de la
siguiente forma:
c0c = 1:
A un vector c que resuelve Ac = c� y c0c = 1 se
le llama vector propio de A. Al valor de � asociado al
vector propio c se le llama valor propio de A.
Cálculo de los valores y vectores propios
Para encontrar los valores propios de la matriz A reescri-
bimos el sistema Ac = c� como sigue:
(A� �IN) c = 0N�1:
Mirando el sistema anterior nos damos cuenta de que éste
tendrá una solución no nula (i.e. con c 6= 0) si y sólo si la
matrizA��IN es singular. Como vimos antes,A��IN
será singular si y sólo si
det (A� �IN) = 0:
A esta ecuación se le llama ecuación característica de
A y es un polinomio de grado N en �, lo que signi�ca
que tiene N raíces o valores � de que la satisfacen (de
ahí que a los valores propios también se les llame raíces
características).
Por lo tanto, la matriz cuadrada A tiene N valores pro-
pios �1; �2; :::; �N , los que pueden ser números reales,
complejos o una mezcla.
Una vez que hemos calculado los N valores propios de
A es sencillo recuperar los N vectores propios. Basta
resolver el sistema
(A� �iI) ci = 0;
para cada �i. Como la matriz A� �iI es singular dicho
sistema de ecuaciones tiene in�nitas soluciones no nulas
para ci. ¿Cuál escogemos? Como anticipamos, elegimos
alguno que cumpla la normalización c0ici = 1.
Ejercicio:
Sea P =
"
cos(x) sen(x)
� sen(x) cos(x)
#
1. Calcule la matriz inversa de P.
2. Calcule los valores propios de P.
3. Calcule los vectores propios de P.
Ayuda: Recuerde que cos(x)2 + sen(x)2 = 1.
Descomposición espectral de una matriz
Agrupemos los N vectores propios de la matriz A en una
matriz de N �N a la que llamaremos C:
C =
h
c1 c2 ::: cN
i
y los N valores propios de A en una matriz diagonal a la
que llamaremos �:
� =
26664
�1 0 ::: 0
0 �2 ::: 0
... ... . . . ...
0 0 ::: �N
37775 :
Podemos expresar las ecuaciones (A� �iI) ci = 0 de la
siguiente forma:h
Ac1 Ac2 ::: AcN
i
=
h
c1�1 c2�2 ::: cN�2
i
;
o, lo que es lo mismo, así:
AC = C�
Si además la matrizC es invertible, obtenemos la siguien-
te identidad:
A = C�C�1
A esta forma de escribir una matriz cuadrada se le lla-
ma descomposición espectral y es sumamente útil, como
veremos más adelante.
Descomposición espectral de una matriz simétrica
Toda matriz simétrica de dimensión N � N tiene N
vectores propios distintos, los que además de normales
(i.e. c0ici = 1 para todo i) son ortogonales entre sí (i.e.
c0icj = 0 para todo i 6= j). Esto es C0C = I, o bien,
C = C�1 (Tarea: demuéstrelo). Luego, si A es simétri-
ca, la podemos descomponer así:
A = C�C0
Si A es una matriz simétrica y además es de�nida posi-
tiva, la descomposición anterior puede reescribirse de la
manera que sigue:
A = C�
1
2�
1
2C0 = P0P;
donde P = �
1
2C0 es una matriz cuyos elementos son
todos número reales. Por lo tanto, una matrizA simétrica
es de�nida positiva sí y sólo si A = P0P, donde las
columnas de P son linealmente independientes.
Propiedades de valores y vectores propios
1. La suma de los valores propios de A es igual a la
traza de A.
2. El producto de los valores propios de A es igual al
determinante de A.
3. Si A tiene inversa, los valores propios de A�1 son
los inversos de los valores propios deA, mientras que
sus vectores propios son los mismos.
4. SiA es idempotente, sus valores propios sólo pueden
tomar dos valores: 0 o 1.
5. Si A es idempotente, el número de sus valores pro-
pios distintos de 0 es igual a su traza.
Tarea: demostrar las propiedades 1 a 5.
Cálculo matricial
Sea f (x) : RN ! R una función escalar de un vector.
A las derivadas parciales de f (x) las podemos organizar
en un vector columna al que llamamos gradiente:
@f (x)
@x
=
26666664
@f(x)
@x1
@f(x)
@x2...
@f(x)
@xN
37777775 :
Por otra parte, a las segundas derivadas de f (x) las or-
denamos en una matriz cuadrada, la que recibe el nombre
de Hessiano:
@f (x)
@x@x0
=
26666664
@f(x)
@x1@x1
@f(x)
@x1@x2
:::
@f(x)
@x1@xN
@f(x)
@x2@x1
@f(x)
@x2@x2
:::
@f(x)
@x2@xN... ... . . . ...
@f(x)
@xN@x1
@f(x)
@xN@x2
:::
@f(x)
@xN@xN
37777775 :
Si f (x) es una función continua, el teorema de Young
nos garantiza que el Hessiano de f (x) será una matriz
simétrica.
El Hessiano nos permite determinar si una función es cón-
cava (o convexa) en un punto. Basta evaluar el Hessiano
en ese punto y luego veri�car que el resultado es una
matriz de�nida positiva (o de�nida negativa, si se está
chequeando convexidad).
Dos identidades útiles
Sea A una matriz cuadrada y x un vector columna con-
formable con ella. Entonces
1. @Ax@x = A
0.
2. @Ax
@x0 = A.
3. @x
0Ax
@x = (A
0 +A)x.
Tarea: demostrar las tres identidades.

Otros materiales