Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Econometría Prof. Ricardo Guzmán Ponti�cia Universidad Católica de Chile Instituto de Economía 2do Semestre de 2006 Sección 1: Álgebra Lineal De�niciones Una matriz es una colección de elementos ordenados en M �las y N columnas. Sea A una matriz cualquiera. Denotamos por aij al ele- mento de la matrizA que está en la �la i y en la columna j deA. Alternativamente, decimos que aij ocupa la posi- ción (i; j) en A. Ejemplo: A = " 2 1 �2 0 �12 6 # : ¿Qué valores toman a11, a22, a13 y a23? Una matriz es cuadrada si M = N , es un vector colum- na si N = 1 y es un vector �la si M = 1. Llamamos escalares a las matrices de dimensión 1� 1. Ejemplo: A es cuadrada, B es un vector columna y C es un vector �la. A = " 2 1 0 1 # ; B = " �2 0 # ; C = h 3 �1 i : La diagonal de una matriz cuadrada A está formada por todos los elementos aij tales que i = j. Decimos que una matriz es diagonal si todos los elementos fuera de su diagonal son cero. Ejemplo: A, B y C son matrices diagonales. A = 264 2 0 00 �3 0 0 0 � 375 ; B = " 1 0 0 1 # ; C = h 10 i : DenotamosA0 a la matriz transpuesta deA. El elemento aij de A ocupa la posición (j; i) en A0. Por lo tanto, si la dimensión de A es M � N , la dimensión de A0 es N �M . Ejemplo: A = 264 2 �80 �3 1 3 375 ; A0 = ? Una matriz es simétrica si es igual a su transpuesta o, lo que es lo mismo, si aij = aji para todo i y j. Note que sólo las matrices cuadradas pueden ser simétricas, y que todas las matrices diagonales son simétricas. Ejemplo: La matriz A es simétrica. A = 264 �2 1 201 4 0 20 0 � 375 : Operatoria de matrices Suma de matrices Sean A y B matrices deM �N . Entonces, C = A+B si y sólo si cij = aij + bij para todo i y j. Sólo pueden sumarse matrices de iguales dimensiones. Ejemplo:26664 1 1 �1 3 4 0 �2 0 2 0 �1 5 37775+ 26664 4 3 �1 �3 5 1 1 2 �1 �4 1 1 37775 = 26664 5 4 �2 0 9 1 �1 2 1 �4 0 6 37775 : Producto escalar Sea A una matriz de M �N y � un escalar. Entonces, C = �A = A� si y sólo si cij = �aij para todo i y j. Ejemplo: 2 26664 1 1 �1 3 4 0 �2 0 2 0 �1 5 37775 = 26664 2 2 �2 6 8 0 �4 0 4 0 �2 10 37775 : Multiplicación de matrices Sea A una matriz de L�M y B una matriz deM �N . Entonces, C = AB si y sólo si cij = PM m=1 aimbmj. Sólo pueden multiplicarse dos matrices cuando el número de columnas de la primera es igual al número de �las de la segunda. Ejemplos:" 1 1 �1 3 4 0 # 264 2 11 �1 �1 0 375 = " 4 0 10 �1 # ; " 1 3 # h 2 �1 i = " 2 �1 6 �3 # ; h 2 2 �1 i 264 112 3 375 = h 0 i : Salvo raras excepciones, la multiplicación de matrices no es conmutativa. Decimos que A es idempotente si AA = A. Ejemplo:" 2 1 �2 �1 # " 2 1 �2 �1 # = " 2 1 �2 �1 # : Denotamos por IN a la matriz identidad de orden N . Ésta es una matriz N�N de tal que todos los elementos de su diagonal son 1 y todos los elementos fuera de su diagonal son 0. Ejemplos: I1 = h 1 i ; I2 = " 1 0 0 1 # ; I3 = 264 1 0 00 1 0 0 0 1 375 : La matriz identidad es el elemento neutro de la mul- tiplicación de matrices: Sea A de M � N , entonces AIN = IMA = A. Tarea: Demostrarlo. Propiedades de la suma, producto escalar y multi- plicación de matrices 1. A+B = B+A. 2. (A+B) +C = A+ (B+C). 3. (A+B)0 = A0 +B0. 4. �(A+B) = �A+ �B. 5. (AB)C = A(BC). 6. (AB)0 = B0A0. Tarea: Demostrar las propiedades 1 a 6. Combinación lineal Un vector columna x es una combinación lineal de las columnas de la matriz A si existe un vector columna c tal que x = Ac. Ejemplo: x es combinacion lineal de las columnas de A. x = 264 32 0 375 ; A = 264 1 10 2 1 �2 375 : Decimos que las columnas de A son linealmente inde- pendientes (LI) si ninguna de ellas es combinación lineal de las demás. Ejemplo: Las columnas de A son LI. Las columnas de B no lo son. A = 264 1 1 30 2 2 1 �2 1 375 ; B = 264 1 1 �30 2 �2 1 �2 0 375 . Traza de una matriz La traza de una matriz cuadrada es la suma de los ele- mentos de su diagonal. Ejemplo: tr " 1 �1 0 2 # = ? Propiedades de la traza 1. tr(�A) = � tr(A). 2. tr(A) = tr(A0). 3. tr(A+B) = tr(A) + tr(B). 4. tr(ABC) = tr(BCA) = tr(CAB). Tarea: Demostrar las propiedades 1 a 4. Determinante de una matriz El determinante de una matriz es una función que asocia un número a toda matriz cuadrada. Se de�ne recursiva- mente: 1. Si A es una matriz de 1 � 1, entonces su determi- nante es igual al (único) elemento de A: det (A) = a11: 2. Si A es una matriz de N�N , con N � 2, entonces el determinante de A se de�ne de la siguiente ma- nera: det (A) = NX j=1 (�1)i+j aij det � A[�i;�j] � dondeA[�i;�j] es el cofactor del elemento aij, e i es cualquier �la de la matrizA. El cofactor del elemento aij es la matriz de que se obtiene al eliminar de A la �la i y la columna j. Ejemplos: det " 2 1 3 3 # = 2 � 3� 1 � 3 = 3 det " 0 1 1 3 # = 0 � 3� 1 � 1 = �1 det 264 1 2 00 2 1 1 3 3 375 = 1det " 2 1 3 3 # � 2 det " 0 1 1 3 # = 4 Propiedades de los determinantes 1. Para todo k 6= i, NX j=1 (�1)i+jakj det(A[�i;�j]) = 0: 2. det(A) = det(A0). 3. det(A) = 0 si y sólo si una �la (columna) de A es combinación lineal de otras �las (columnas) de A. 4. det(AB) = det(A) det(B). 5. Si A es diagonal, entonces det(A) = QN i=1 aii. 6. det(�A) = �N det(A). Matriz inversa Sea A una matriz de N �N . Si existe una matriz B tal que AB = I, entonces decimos que B es la inversa de A. Ejemplo: " 2 1 3 3 #�1 = 24 1 �13 �1 23 35 : No todas las matrices de tienen inversa. A una matriz que no tiene inversa se le llama singular. Si la inversa de A existe, la denotamos A�1. Calcular la inversa de A es lo mismo que resolver N sistemas de N ecuaciones. Veamos por qué. Sea B la inversa de A. Llamemos bj a la j-ésima colum- na de B, y llamemos ej a un vector columna de largo N cuyos elementos son todos cero, salvo su elemento j- ésimo, que es un uno. Entonces, escribir AB = IN es equivalente a escribir A h b1 b2 ::: bN i = h e1 e2 ::: eN i : El j-ésimo sistema de ecuaciones a resolver está dado por la siguiente expresión: Abj = ej. Los coe�cientes del sistema están en la matriz A, las N incógnitas son los elementos de bj y las constantes son los elementos de ej. Si llamamos a0i a la i-ésima �la de la matriz A, podemos escribir la i-ésima ecuación del j-ésimo sistema de esta forma: a0ibj = ( 1 si i = j 0 si i 6= j: Las soluciones del j-ésimo sistema son: bij = (�1)i+j det � A[�i;�j] � det (A) Para veri�carlo, reemplace las N soluciones de los N sistemas en AB, y use las dos primeras propiedades de los determinantes. Tarea: Hágalo. Propiedades de la matriz inversa 1. La matriz A tiene inversa si y sólo si det (A) 6= 0. 2. La inversa por izquierda de una matriz es igual a su inversa por derecha. Esto es, si AB = I y CA = I, entonces A = B = A�1. 3. SiA yB tienen inversa, entonces (AB)�1 = B�1A�1 4. (A�1)0 = (A0)�1 5. Si A es diagonal, A�1 también lo es. Los elemen- tos de la diagonal de A�1 son los inversos de los elementos de diagonal de A. 6. det(A�1) = det (A)�1. Tarea: Demostrar las propiedades 1 a 6. Matrices particionadas Sea A una matriz deM�N . Podemos particionar A de la siguiente forma: " A11 A12 A21 A22 # : donde Aij es una matriz de dimensión Mi �Nj, M1 + M2 =M y N1 +N2 = N . Ejemplo:26666664 2 2 2 6 8 0 4 0 4 0 2 1 1 2 1 37777775 = 266666664 264 2 26 8 4 0 375 264 20 4 375 " 0 2 1 2 # " 1 1 # 377777775 Operatoria de matrices particionadas 1. Suma:" A11 A12 A21 A22 # + " B11 B12 B21 B22 # = " A11 +B11 A12 +B12 A21 +B21 A22 +B22 # : 2. Producto escalar: � " A11 A12 A21 A22 # = " �A11 �A12 �A21 �A22 # : 3. Multiplicación:" A11 A12 A21 A22 # " B11 B12 B21 B22 # = " A11B11 +A12B21 A11B12 +A12B22 A21B11 +A22B21 A21B12 +A21B22 # : 4. Inversa: " A11 A12 A21 A22 #�1 = " B11 B12 B21 B22 # ; donde B11 = � A11 �A12A�122 A21 ��1 ; B22 = � A22 �A21A�111 A12 ��1 ; B12 = �A�111 A12B22; B21 = �A�122 A21B11: Tarea: demostrar las propiedades 1 a 4. Rango de una matriz SeaA una matriz deM�N . Sellama rango de la matriz A al máximo número de �las (o columnas) linealmente independientes de A. Si rango (A) =M decimos que la matriz A es de rango �la completo. Si rango (A) = N decimos que la matriz A es de rango columna completo. Ejemplos: rango 264 2 26 8 4 0 375 = 2; rango " 2 1 �1 6 3 �3 # = 1; rango " 2 �1 6 3 # = 2: Propiedades del rango 1. rango (A) � m��n fM;Ng : 2. Sea A una matriz de rango columna completo y B una matriz cuadrada no singular. Entonces, AB es una matriz de rango columna completo. 3. Si A es de rango completo, entonces A0A es inver- tible. Tarea: demostrar las propiedades 1 a 3. Matrices de�nidas Sea A una matriz de N �N y x un vector columna de largo N . Consideremos la siguiente forma cuadrática de A: x0Ax = NX i=1 NX j=1 aijxixj: En general, una forma cuadrática puede ser un número positivo, negativo o cero. A veces, sin embargo, tiene un signo de�nido independiente del valor que tome x. 1. Si x0Ax (�)> 0 para todo x 6= 0, decimos que A es una matriz (semi) de�nida positiva. 2. Si x0Ax (�)< 0 para todo x 6= 0, decimos que A es una matriz (semi) de�nida negativa. 3. Sean A y B matrices de�nidas. Si x0(A�B)x > 0, decimos que A > B: Ejemplos:A es de�nida positiva,B es semi de�nida neg- ativa y C no es ni semide�nida positiva ni semide�nida negativa: A = " 2 1 1 4 # B = " �1 1 1 �1 # C = " 1 3 2 4 # Propiedades de las matrices de�nidas 1. SiA es de�nida positiva, entonces el productoP0AP es una matriz semide�nida positiva. Si las colum- nas de P son linealmente independientes, entonces P0AP es de�nida positiva. 2. El productoP0P es una matriz semide�nida positiva. Si las columnas deP son linealmente independientes, entonces P0P es de�nida positiva. 3. Los elementos de la diagonal de una matriz de�nida positiva (negativa) son todos positivos (negativos). 4. Si A y B son matrices de�nidas, y A > B, entonces A�1 < B�1. 5. Si A es de�nida positiva (negativa), entonces A�1 es de�nida positiva (negativa). Tarea: demostrar propiedades 1 a 5. Valores y vectores propios Sea A una matriz de N � N . Consideremos el siguien- te sistema de ecuaciones, cuyas soluciones son el vector columna c y el escalar �: Ac = c�: Note que, si c y � son soluciones del sistema anterior, también lo son kc y �, para cualquier valor de k. Con el �n de eliminar esa indeterminación normalizamos c de la siguiente forma: c0c = 1: A un vector c que resuelve Ac = c� y c0c = 1 se le llama vector propio de A. Al valor de � asociado al vector propio c se le llama valor propio de A. Cálculo de los valores y vectores propios Para encontrar los valores propios de la matriz A reescri- bimos el sistema Ac = c� como sigue: (A� �IN) c = 0N�1: Mirando el sistema anterior nos damos cuenta de que éste tendrá una solución no nula (i.e. con c 6= 0) si y sólo si la matrizA��IN es singular. Como vimos antes,A��IN será singular si y sólo si det (A� �IN) = 0: A esta ecuación se le llama ecuación característica de A y es un polinomio de grado N en �, lo que signi�ca que tiene N raíces o valores � de que la satisfacen (de ahí que a los valores propios también se les llame raíces características). Por lo tanto, la matriz cuadrada A tiene N valores pro- pios �1; �2; :::; �N , los que pueden ser números reales, complejos o una mezcla. Una vez que hemos calculado los N valores propios de A es sencillo recuperar los N vectores propios. Basta resolver el sistema (A� �iI) ci = 0; para cada �i. Como la matriz A� �iI es singular dicho sistema de ecuaciones tiene in�nitas soluciones no nulas para ci. ¿Cuál escogemos? Como anticipamos, elegimos alguno que cumpla la normalización c0ici = 1. Ejercicio: Sea P = " cos(x) sen(x) � sen(x) cos(x) # 1. Calcule la matriz inversa de P. 2. Calcule los valores propios de P. 3. Calcule los vectores propios de P. Ayuda: Recuerde que cos(x)2 + sen(x)2 = 1. Descomposición espectral de una matriz Agrupemos los N vectores propios de la matriz A en una matriz de N �N a la que llamaremos C: C = h c1 c2 ::: cN i y los N valores propios de A en una matriz diagonal a la que llamaremos �: � = 26664 �1 0 ::: 0 0 �2 ::: 0 ... ... . . . ... 0 0 ::: �N 37775 : Podemos expresar las ecuaciones (A� �iI) ci = 0 de la siguiente forma:h Ac1 Ac2 ::: AcN i = h c1�1 c2�2 ::: cN�2 i ; o, lo que es lo mismo, así: AC = C� Si además la matrizC es invertible, obtenemos la siguien- te identidad: A = C�C�1 A esta forma de escribir una matriz cuadrada se le lla- ma descomposición espectral y es sumamente útil, como veremos más adelante. Descomposición espectral de una matriz simétrica Toda matriz simétrica de dimensión N � N tiene N vectores propios distintos, los que además de normales (i.e. c0ici = 1 para todo i) son ortogonales entre sí (i.e. c0icj = 0 para todo i 6= j). Esto es C0C = I, o bien, C = C�1 (Tarea: demuéstrelo). Luego, si A es simétri- ca, la podemos descomponer así: A = C�C0 Si A es una matriz simétrica y además es de�nida posi- tiva, la descomposición anterior puede reescribirse de la manera que sigue: A = C� 1 2� 1 2C0 = P0P; donde P = � 1 2C0 es una matriz cuyos elementos son todos número reales. Por lo tanto, una matrizA simétrica es de�nida positiva sí y sólo si A = P0P, donde las columnas de P son linealmente independientes. Propiedades de valores y vectores propios 1. La suma de los valores propios de A es igual a la traza de A. 2. El producto de los valores propios de A es igual al determinante de A. 3. Si A tiene inversa, los valores propios de A�1 son los inversos de los valores propios deA, mientras que sus vectores propios son los mismos. 4. SiA es idempotente, sus valores propios sólo pueden tomar dos valores: 0 o 1. 5. Si A es idempotente, el número de sus valores pro- pios distintos de 0 es igual a su traza. Tarea: demostrar las propiedades 1 a 5. Cálculo matricial Sea f (x) : RN ! R una función escalar de un vector. A las derivadas parciales de f (x) las podemos organizar en un vector columna al que llamamos gradiente: @f (x) @x = 26666664 @f(x) @x1 @f(x) @x2... @f(x) @xN 37777775 : Por otra parte, a las segundas derivadas de f (x) las or- denamos en una matriz cuadrada, la que recibe el nombre de Hessiano: @f (x) @x@x0 = 26666664 @f(x) @x1@x1 @f(x) @x1@x2 ::: @f(x) @x1@xN @f(x) @x2@x1 @f(x) @x2@x2 ::: @f(x) @x2@xN... ... . . . ... @f(x) @xN@x1 @f(x) @xN@x2 ::: @f(x) @xN@xN 37777775 : Si f (x) es una función continua, el teorema de Young nos garantiza que el Hessiano de f (x) será una matriz simétrica. El Hessiano nos permite determinar si una función es cón- cava (o convexa) en un punto. Basta evaluar el Hessiano en ese punto y luego veri�car que el resultado es una matriz de�nida positiva (o de�nida negativa, si se está chequeando convexidad). Dos identidades útiles Sea A una matriz cuadrada y x un vector columna con- formable con ella. Entonces 1. @Ax@x = A 0. 2. @Ax @x0 = A. 3. @x 0Ax @x = (A 0 +A)x. Tarea: demostrar las tres identidades.
Compartir