Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Pontificia Universidad Católica de Chile Instituto de Economía Econometría I – EAE 250A Juan Ignacio Urquiza – Segundo Semestre 2019 Repaso de Matrices Definiciones Básicas: Matriz Cuadrada, Diagonal, Identidad, etc… Operaciones Básicas: Suma, Multiplicación Transpuesta Inversa Independencia Lineal Diferenciación Vectores aleatorios Apéndice D - Wooldridge Definiciones Básicas Definición de Matriz: Es un arreglo rectangular de números. Una matriz de orden m x n tiene m filas y n columnas. Suelen representarse mediante letras mayúsculas. Definiciones Básicas Definición de Matriz Cuadrada: Es una matriz que tiene el mismo número de filas y columnas. Es decir, una matriz donde m = n. Ejemplos: Definiciones Básicas Definición de Vector: Conjunto ordenado de números, dispuestos en una fila o una columna. Vector fila: matriz de dimensión 1 x m. Ejemplo: Vector columna: matriz de dimensión n x 1. Ejemplo: Definiciones Básicas Definición de Matriz Diagonal: Es una matriz cuadrada cuyos elementos fuera de la diagonal son iguales a cero. Es decir, aij = 0 para todo i ≠ j. Ejemplo: Definiciones Básicas Definición de Matriz Identidad (In): Es una matriz diagonal donde sus elementos no nulos son iguales a 1. Es decir, aij = 1 para todo i = j. Ejemplo: Operaciones Básicas Suma de Matrices: La suma de dos matrices A y B, de dimensión m x n, es una matriz C de igual dimensión. La suma se lleva a cabo elemento por elemento. Más precisamente: C = A + B = [aij + bij] Ejemplo: Operaciones Básicas Multiplicación de una Matriz por un escalar: Consiste en la suma de una matriz con si misma k veces. Más precisamente: C = kA = [kaij] Ejemplo: Operaciones Básicas Multiplicación de Matrices: Para multiplicar la matriz A por la matriz B, la cantidad de columnas de la matriz A debe ser igual al número de filas de la matriz B (números en azul deben coincidir). Luego de multiplicar, la matriz resultante tendrá la misma cantidad de filas que A y la misma cantidad de columnas que B (ver números en rojo y verde). Ejemplo: (AB = C) Operaciones Básicas Proceso de multiplicación: (AB = C) donde: Multiplicación de Matrices Propiedades: (α+β)A = αA + βA (distributiva de escalar) α(A+B) = αA + αB (distributiva de matriz) α(AB) = (αA)B (asociativa) A(B+C) = AB + AC (A+B)C = AC + BC IA = AI = A (elemento neutro) AB ≠ BA Operaciones Básicas Matriz Transpuesta: La transpuesta de una matriz A se obtiene de intercambiar sus filas por sus columnas. Es decir, A’ = [aji] Ejemplo: Matriz Transpuesta Propiedades: (A’)’ = A (αA)’ = αA’ (A+B)’ = A’ + B’ (AB)’ = B’A’ Matriz Simétrica: Una matriz cuadrada A es simétrica si y sólo si A’ = A. Traza La traza de una matriz cuadrada A es igual a la suma de los elementos de su diagonal. Formalmente: tr(A) = Σ aii Ejemplo: Traza Propiedades: tr(In) = n tr(A’) = tr(A) tr(A+B) = tr(A) + tr(B) tr(αA) = α tr(A) tr(AB) = tr(BA) Inversa La inversa de una matriz cuadrada A se denota A–1, y viene dada por: AA–1 = In o A –1A = In En este caso, decimos que la matriz A es invertible o no singular. Propiedades: (αA)–1 = (1/α)A–1 (AB)–1 = B–1A–1 (A’)–1 = (A–1)’ Independencia Lineal Sea {x1, x2, …, xr} un conjunto de vectores n x 1. Decimos que los vectores son linealmente independientes si y sólo si la única solución a: a1x1 + a2x2 + … + arxr = 0 es a1 = a2 = … = ar = 0. Intuitivamente, decir que son linealmente dependientes implica que al menos un vector puede escribirse como una combinación lineal de los otros vectores. Ejemplo Vectores linealmente independientes: A = (1, 0, 0) B = (0, 1, 0) C = (0, 0, 1) Vectores linealmente dependientes: A = (2, -1, 1) B = (1, 0, 1) C = (3, -1, 2) No existe combinación lineal entre los vectores que permita obtener otro, por lo tanto, decimos que son linealmente independientes Sí existe combinación lineal entre los vectores que permite obtener otro. Concretamente, si sumamos A y B, obtenemos el vector C, por lo tanto, decimos que son linealmente dependientes Rango Sea A una matriz n x m, entonces el rango de A es el máximo número de columnas linealmente independientes. Si A tiene dimensión n x m, y su rango es igual a m, entonces decimos que A es de rango completo. Propiedades: rank(A’) = rank(A) Si A es n x k, entonces rank(A) ≤ min(n,k) Si A es k x k, y rank(A)=k, entones A es invertible Formas Cuadráticas Sea A una matriz simétrica. La forma cuadrática asociada a la matriz A viene dada por la siguiente función definida para todo vector x: f(x) = x’Ax = Ejemplo (calcular forma cuadrática asociada a A): Formas Cuadráticas Para visualizar mejor, escribimos lo siguiente: De esta manera obtenemos: Formas Cuadráticas Matriz semi-definida positiva/negativa: Método 1: Decimos que A es definida positiva si: x’Ax > 0 para todo vector x excepto x = 0 Decimos que A es semi-definida positiva si: x’Ax ≥ 0 para todo vector x Formas Cuadráticas Método 2 (análogo): Calculamos eigenvalues (autovalores): Buscamos todos los λ que satisfagan: Si todos los valores de λ son mayores o iguales a cero, la matriz A es semi-definida positiva. Si todos los valores de λ son menores o iguales a cero, la matriz A es semi-definida negativa. Formas Cuadráticas Propiedades: Si A es definida positiva, entonces la suma de los elementos de su diagonal es estrictamente positiva, mientras que si A es semi-definida positiva dicha suma es no negativa. Si A es definida positiva, entonces A–1 existe y es también definida positiva. Si X es n x k, entonces X’X y XX’ son semi-definidas positivas. Si X es n x k, y rank(X)=k, entonces X’X es definida positiva y, por tanto, no singular. Matriz Idempotente A es una matriz idempotente si y sólo si: AA = A Propiedades: Sea A una matriz simétrica e idempotente, entonces: rank(A)=tr(A) A es semi-definida positiva Diferenciación Sea a un vector n x 1, y considere la siguiente función lineal: f(x) = a’x para todo vector x (n x 1). Entonces, la derivada de f con respecto a x es igual a un vector (1 x n) con las derivadas parciales: ∂f(x)/∂x = a’ Sea la siguiente forma cuadrática – A matriz simétrica: g(x) = x’Ax Entonces, ∂g(x)/∂x = 2x’A vector 1 x n Vectores Aleatorios Valor esperado: Si y es un vector n x 1 aleatorio, su valor esperado es el vector de los valores esperados: 𝐸 𝒚 = 𝐸 𝑦1 , 𝐸 𝑦2 , … , 𝐸(𝑦𝑛) ′ Si Z es una matriz aleatoria de n x m, E(Z) es la matriz n x m de valores esperados: 𝐸 𝒁 = 𝐸(𝑧𝑖𝑗) Propiedad: Si A es una matriz m x n y b un vector n x 1 ambos no aleatorios, entonces 𝐸 𝑨𝒚 + 𝒃 = 𝑨𝐸 𝒚 + 𝑏. Vectores Aleatorios Matriz varianza-covarianza: Si y es un vector n x 1 aleatorio, su matriz varianza- covarianza Var(y) se define como: 𝑉𝑎𝑟 𝒚 = 𝜎1 2 𝜎12 𝜎21 𝜎2 2 ⋯ 𝜎1𝑛 𝜎2𝑛 ⋮ ⋱ ⋮ 𝜎𝑛1 𝜎𝑛2 ⋯ 𝜎𝑛 2 donde 𝜎𝑗 2 = 𝑉𝑎𝑟(𝑦𝑗) y 𝜎𝑖𝑗 = 𝐶𝑜𝑣 𝑦𝑖 , 𝑦𝑗 . Es decir, contiene las varianzas de cada elemento en la diagonal, con las covarianzas fuera de la diagonal. Vectores Aleatorios Matriz varianza-covarianza: Propiedades: 𝑉𝑎𝑟 𝒚 = 𝐸 𝒚 − 𝝁 𝒚 − 𝝁 ′ , donde 𝝁 = 𝐸(𝒚). Si a es un vector no aleatorio de n x 1, entonces 𝑉𝑎𝑟 𝒂′𝒚 = 𝒂′𝑉𝑎𝑟 𝒚 𝒂 ≥ 0. Si A es una matriz m x n y b un vector n x 1 ambos no aleatorios, entonces 𝑉𝑎𝑟 𝑨𝒚 + 𝒃 = 𝑨 𝑉𝑎𝑟 𝒚 𝑨′.
Compartir