Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Capítulo 1 Introducción “Without data all you are is just another person with an opinion” (Anónimo) “Facts are stupid things” (Ronald Reagan, 1978). Con frecuencia en el estudio de la economía -y de la econometría en particular– se comete el error de empezar con el análisis de “modelos económicos” sin definir previamente lo que se entiende por modelo y sin explicar por qué es importante construir dichos modelos. Sims (1996)1 señala que los avances en ciencias naturales –y en gran medida en economía— se refieren usualmente a descubrimientos sobre nuevos modos de comprimir datos con respecto a algún fenómeno con una mínima pérdida de información. Considere el siguiente ejemplo de la astronomía: Tycho Brahe (1546-1601) acumuló durante muchos años datos confiables sobre los movimientos de los planetas. Su asistente, Johannes Kepler (1571-1630), sin embargo, observó que podían ser modelados como elipses con el sol en uno de sus focos, logrando una notable compresión de información.2 Los modelos en economía, y en econometría en particular, buscan el mismo objetivo: transmitir información sobre las regularidades que caracterizan a la economía de modo eficiente (máxima compresión) y seguro (menor pérdida). Dichas regularidades –al igual que en las ciencias naturales– tienen nombres más bien pintorescos (p.e., “ley de oferta y demanda”, “propensión marginal a consumir”) pero poseen el atributo de generalidad que les hace particularmente útiles: cuando se menciona que un fenómeno queda razonablemente descrito por una ecuación de recta (es decir un modelo), el auditor instruido inmediatamente deduce las propiedades de dicho modelo y, a la vez, sabe que para cada situación específica en la que dicho fenómeno se verifique habrá una recta particular que le describe. Uno de los primeros y más famosos econometristas Francis Galton señaló que “The object of statistical science is to discover methods of condensing information concerning large groups of allied facts into brief and compendious expressions suitable for discussion” (Inquiries into Human Faculty and its Development, Macmillan: London,1883, pp.55). Otra manera de ver el rol de un modelo o teoría es provisto por S. Hawking “A theory is a good theory if it satisfies two requirements: it must accurately describe a large class of observations on the basis of a model that contains only a few arbitrary elements, and it must make definite predictions about the results of future observations” (A Brief History of Time, New York, 1988). Debiera añadirse que los modelos deben cumplir una restricción adicional, derivada de la célebre sentencia de William de Occam (1285-1349) “Essentia 1 C. Sims, “Macroeconomics and Methodology”, Journal of Economic Perspectives, 10 (Winter): 105-120, 1996. 2 Desilusionado con la incapacidad del modelo de Ptolomeo (85-165) para describir la trayectoria de los planetas, Copernico enunció su teoría heliocéntrica en 1543 pero sin proveer soporte empírico alguno. La contribución de Brahe fue hacer mediciones precisas del movimiento de los planetas que hicieron posible a Kepler la modelación del fenómeno. La superioridad del modelo de Kepler produjo fuerte agitación social pues la Iglesia la consideró «contraria a las Sagradas Escrituras». El 26 de febrero de 1615, el cardenal jesuita Bellarmino inició el juicio contra Galileo e incluyó los libros de Copernico De revolutionibus, Kepler Mysterium cosmographicum, y Galileo Discorsi en el Indice de Libros Prohibidos donde permanecieron hasta 1835. 1.2 non sunt multiplicanda praeter necessitatem”, es decir, que los elementos de un modelo no deben ser aumentados más allá de lo necesario. La simplicidad es un objetivo de la modelación. Objetivamente, los economistas aún no somos capaces de desarrollar teorías que sean capaces de describir la enorme heterogeneidad de los fenómenos económicos. Recientemente, se ha desarrollado una línea de investigación sobre la pregunta de cuáles son las formas, causas, y consecuencias de las complejidad de los sistemas económicos. Rosser (2004)3 clasifica la complejidad que enfrenta un agente económico en tres áreas fundamentales. Primero, complejidad en la estructura dinámica –y posiblemente no lineal– de los fenómenos económicos, es decir, el hecho frecuente que una pequeña perturbación en un sistema económico tenga repercusiones y ramificaciones dinámicas en la economía de gran impacto (p.e., un cambio en un precio clave de la economía como la tasa de interés). Segundo, la complejidad lógica y computacional que enfrenta un agente económico al tomar una decisión cuando existe un gran número de mercados, oferentes y demandantes. En particular la noción de equilibrio de los modelos económicos es muy compleja: por ejemplo, un equilibrio Walrasiano le exige al agente económico la computación de un número enorme de precios relativos, el equilibrio de Nash exige una gran capacidad de análisis lógico para anticipar las reacciones de los otros jugadores frente a diferentes alternativas de decisión. Tercero, la complejidad en la aprehensión del fenómeno económico, es decir, el problema adicional al que el proceso de aprehender la realidad económica es, en sí, también muy complejo y no puede ser llevado a cabo sin costos excesivamente altos. Al problema de la complejidad se le suman las restricciones que enfrenta el análisis económico en términos de información sobre los fenómenos de interés y sus causas. Tradicionalmente las ciencias naturales le han otorgado poco valor al análisis probabilístico de los fenómenos. Ello se debe a que muchos de dichos fenómenos pueden ser replicados en laboratorios bajo condiciones experimentales controladas. En la mayoría de los problemas económicos no resulta factible realizar un análisis experimental en circunstancias absolutamente controladas. Por ejemplo, no es posible pedirle a un grupo de individuos que vuelva a estudiar una carrera profesional para estimar cómo habría sido su perfil de ingreso en estas nuevas circunstancias. En este sentido, los economistas usamos los datos disponibles para inferir probabilísticamente la capacidad de una teoría para comprimir información pertinente sobre un determinado más fenómeno o la congruencia con la que lo hace. Algunas de las ramas de la física o la química han adoptado recientemente el esquema metodológico de la economía: por ejemplo, la astronomía no cuenta –salvo honrosas excepciones– con “muestras” de fenómenos de gravitación universal, sino con un fenómeno único.4 La física subatómica 3 J. Barkley Rosser, Jr. (2004) “Epistemological Implications Of Economic Complexity”, mimeo, Department of Economics, James Madison University. 4 S. G. Djorgovski reporta que el volumen de observaciones disponibles en astronomía se dobla en aproximadamente cada año y medio. En cada noche, se produce aproximadamente 1 Terabyte de datos adicionales (equivalente a la colección completa de la biblioteca PUC). Ello exige una modelación probabilística de los datos. “Virtual Astronomy, Information Technology, and the New Scientific 1.3 no puede observar directamente un fenómeno sino sus efectos, de los cuales debe inferir la validez de una hipótesis teórica. En ambos casos el análisis es frecuentemente probabilístico. Es por estas razones –complejidad del fenómeno y restricciones de información– que la economía se basa en el desarrollo y análisis de modelos de comportamiento validados empíricamente mediante métodos cuantitativos, en especial, los métodos econométricos que se discuten en lo siguientes capítulos.5 La modelación econométrica propiamente tal comienzade manera significativa a principios del siglo XX con los trabajos de los fundadores de la disciplina (Galton, Pearson, Neyman, Fischer, Frisch, etc.) que desarrollaron la base estadística de gran parte de los tests básicos que se usan en la actualidad. Pero no fue si no hasta los años 1950 que se masificó el uso de modelos econométricos como base del análisis de políticas económicas y para la verificación de diversos postulados teóricos. El gran empuje de mediados del siglo XX proviene principalmente del desarrollo de un fundamento teórico sólido para la econometría en general y para los modelos econométricos de gran escala en particular. Estos últimos se beneficiaron de la aparición de bases de datos adecuadas (p.e., cuentas nacionales) y de una creciente capacidad de computación. El éxito de la econometría como base del análisis empírico es indudable. Ciertamente los modelos empíricos cometerán errores en la descripción de los fenómenos que nos interesa modelar; sin embargo, en este contexto se aplica la célebre frase del padre de la computación Charles Babbage (1791-1871) “Errors using inadequate data are much less than those using no data at all”. El diseño de modelos analíticos y sus contrapartidas empíricas son, en realidad, dos caras de una más moneda: el modo como avanza nuestro conocimiento es mediante la continua contrastación de teoría y evidencia. En términos pedagógicos, sin embargo, en este libro nos ocuparemos principalmente de los modelos econométricos, los cuales serán desarrollados sobre la base de una serie de supuestos que nos permitirán derivar estimadores que cumplen con requisitos de calidad y los tests estadísticos asociados a dichos estimadores. Luego invalidaremos de manera paulatina dichos supuestos para estudiar qué efectos tiene una violación de uno o más supuestos sobre las características de dichos estimadores. El capítulo 2 realiza una revisión de distintos elementos de probabilidades y desarrolla con algún detalle el enfoque axiomático de Kolmogorov (1933)6 que es la base de la estadística moderna. Este enfoque ofrece una formalización axiomática de la noción de probabilidad, cuyas ventajas radican en proveer una teoría completa (todas las Methodology”, en Computer Architectures for Machine Perception, eds. V. Di Gesu & D. Tegolo, IEEE press (2005). 5 The sciences do not try to explain, they hardly even try to interpret, they mainly make models. By a model is meant a mathematical construct which, with the addition of certain verbal interpretations, describes observed phenomena. The justification of such a mathematical construct is solely and precisely that it is expected to work . John von Neumann. 6 Grundbegriffe der Wahrscheinlichkeitsrechnung, Ergebnisse der Mathematik und ihrer Grenzgebiete, J. Springer eds. 1933. 1.4 proposiciones de la teoría se derivan de los axiomas), no-redundante (ningún axioma puede ser derivado de otros), y congruente. El objetivo es que el alumno tenga una sólida base de análisis probabilístico y, más importante aún, que pueda conectar los distintos componentes de la teoría de probabilidades con los componentes básicos del análisis econométrico: entre ellos, el experimento aleatorio, las funciones de distribución conjunta, condicional y marginal, y la noción de la independencia entre variables aleatorias. En particular, esta sección busca que el estudiante entienda cómo los econometristas enfrentan el problema de la complejidad del fenómeno que se desea modelar. El capítulo 3 usa la estructura anterior para enfrentar el segundo problema del análisis econométrico: la limitación de información. La principal adición al modelo de probabilidades desarrollado en el capítulo 2 es la restricción derivada del uso de muestras estadísticas y la inevitable necesidad de usar métodos de inferencia estadística para emitir juicios informados respecto de alguna hipótesis. El capítulo busca que el alumno entienda cómo se transforma la incertidumbre respecto de más los resultados de un experimento aleatorio en incertidumbre sobre los parámetros que caracterizan dicho experimento, y cuáles son las ventajas y limitaciones de dicha transformación. Adicionalmente, se presenta la maquinaria de teoría asintótica que será fundamental en el análisis del modelo de regresión lineal del siguiente capítulo. El capítulo 4 desarrolla el modelo de regresión lineal, que ha sido una de las principales herramientas de análisis empírico de los economistas en los últimos 100 años. Este modelo, al que usualmente se le acopla el método de mínimos cuadrados como técnica de parametrización, permite enfrentar un número muy grande de preguntas en economía. A la vez, es suficientemente flexible como para permitir que, en caso que no se cumplan alguno de los supuestos que le sustentan, se desarrollen estimadores alternativos simples y poderosos. Las propiedades de los estimadores de la familia de mínimos cuadrados deben ser estudiadas tanto en muestra pequeña (finita) como grande (infinita) para entender a cabalidad el papel de los supuestos del modelo. Igualmente, se debe estudiar las propiedades de los tests que se construyen a partir de dichos estimadores de mínimos cuadrados, para determinar más su aplicabilidad en circunstancias prácticas. Finalmente, la técnica de mínimos cuadrados no es la única forma de parametrizar un modelo. En el capítulo se estudian dos alternativas adicionales de gran aplicación práctica: el estimador de máxima verosimilitud y el método generalizado de momentos. En el capítulo 5 se estudian los problemas derivados de la violación de los seis supuestos sobre los cuales se desarrolló el modelo de regresión lineal en el capítulo anterior. La lógica de operar es directa: en primer lugar se estudia el efecto de la violación sobre los estimadores de mínimos cuadrados y los diferentes tipos de tests. En segundo lugar, propondremos, si es posible, alguna solución, examinando el contexto en el que dicha solución es válida. En tercer lugar, se discuten los síntomas que delatan la violación de un supuesto y se desarrollan test formales de detección. Por razones 1.5 pedagógicas, en este capítulo se estudian los problemas de manera aislada, es decir, afectando un supuesto a la vez. El capítulo 6 extiende la tecnología anterior al área de los modelos no lineales. Esta es una literatura muy extensa y, posiblemente, aquella que se ha desarrollado con mayor interés en los últimos años como resultado del veloz desarrollo de la computación. La gran mayoría de los modelos no lineales se resuelven por medio de métodos de cálculo numérico debido a que no existen formas cerradas que permitan derivar expresiones matriciales simples para obtener los estimadores. En la primera parte de este capítulo se desarrolla el instrumental necesario para entender los métodos de optimización no lineal que se usan para la estimación de modelos no lineales. En la segunda parte se aplica dicho instrumental para derivar el estimador de mínimos cuadrados no lineales y los tests asociados. El capítulo 7 presenta una introducción a los modelos de datos de panel. Estos métodos combinan observaciones de corte transversal con observaciones de series de tiempo. Así, nos permiten responder preguntas que no pueden ser respondidas por modelos de corte transversal o series de tiempo por separado, porque usan información sobre una cohorte donde hay N individuos heterogéneos a los que se les observa repetidamente durante un periodo de tiempo T. La literatura de la econometría se expande de manera vertiginosa. Por ello, no tiene sentido intentar incluir un gran número de modelos, tests, estimadores y algoritmosde solución. Inevitablemente aparecerán mejores modelos, tests más precisos y estimadores más atractivos. El objetivo del libro es proveer al estudiante de una base sólida para entender las nuevas contribuciones que la econometría nos ofrece. Capítulo 1 Introducción
Compartir