Logo Studenta

Capitulo1Final - Gustavo Perales Vivar

¡Estudia con miles de materiales!

Vista previa del material en texto

Capítulo 1
Introducción
“Without data all you are is just another person with an opinion” (Anónimo)
“Facts are stupid things” (Ronald Reagan, 1978).
Con frecuencia en el estudio de la economía -y de la econometría en particular– 
se comete el error de empezar con el análisis de “modelos económicos” sin definir 
previamente lo que se entiende por modelo y sin explicar por qué es importante 
construir dichos modelos. Sims (1996)1 señala que los avances en ciencias naturales –y en 
gran medida en economía— se refieren usualmente a descubrimientos sobre nuevos 
modos de comprimir datos con respecto a algún fenómeno con una mínima pérdida de 
información. Considere el siguiente ejemplo de la astronomía: Tycho Brahe (1546-1601) 
acumuló durante muchos años datos confiables sobre los movimientos de los planetas. 
Su asistente, Johannes Kepler (1571-1630), sin embargo, observó que podían ser 
modelados como elipses con el sol en uno de sus focos, logrando una notable 
compresión de información.2
Los modelos en economía, y en econometría en particular, buscan el mismo 
objetivo: transmitir información sobre las regularidades que caracterizan a la economía 
de modo eficiente (máxima compresión) y seguro (menor pérdida). Dichas 
regularidades –al igual que en las ciencias naturales– tienen nombres más bien 
pintorescos (p.e., “ley de oferta y demanda”, “propensión marginal a consumir”) pero 
poseen el atributo de generalidad que les hace particularmente útiles: cuando se 
menciona que un fenómeno queda razonablemente descrito por una ecuación de recta 
(es decir un modelo), el auditor instruido inmediatamente deduce las propiedades de 
dicho modelo y, a la vez, sabe que para cada situación específica en la que dicho 
fenómeno se verifique habrá una recta particular que le describe. Uno de los primeros y 
más famosos econometristas Francis Galton señaló que “The object of statistical science 
is to discover methods of condensing information concerning large groups of allied facts 
into brief and compendious expressions suitable for discussion” (Inquiries into Human 
Faculty and its Development, Macmillan: London,1883, pp.55). Otra manera de ver el rol 
de un modelo o teoría es provisto por S. Hawking “A theory is a good theory if it 
satisfies two requirements: it must accurately describe a large class of observations on 
the basis of a model that contains only a few arbitrary elements, and it must make 
definite predictions about the results of future observations” (A Brief History of Time, 
New York, 1988). Debiera añadirse que los modelos deben cumplir una restricción 
adicional, derivada de la célebre sentencia de William de Occam (1285-1349) “Essentia 
1 C. Sims, “Macroeconomics and Methodology”, Journal of Economic Perspectives, 10 (Winter): 105-120, 1996.
2 Desilusionado con la incapacidad del modelo de Ptolomeo (85-165) para describir la trayectoria de los 
planetas, Copernico enunció su teoría heliocéntrica en 1543 pero sin proveer soporte empírico alguno. La 
contribución de Brahe fue hacer mediciones precisas del movimiento de los planetas que hicieron posible 
a Kepler la modelación del fenómeno. La superioridad del modelo de Kepler produjo fuerte agitación 
social pues la Iglesia la consideró «contraria a las Sagradas Escrituras». El 26 de febrero de 1615, el 
cardenal jesuita Bellarmino inició el juicio contra Galileo e incluyó los libros de Copernico De 
revolutionibus, Kepler Mysterium cosmographicum, y Galileo Discorsi en el Indice de Libros Prohibidos 
donde permanecieron hasta 1835.
1.2
non sunt multiplicanda praeter necessitatem”, es decir, que los elementos de un modelo 
no deben ser aumentados más allá de lo necesario. La simplicidad es un objetivo de la 
modelación.
Objetivamente, los economistas aún no somos capaces de desarrollar teorías que 
sean capaces de describir la enorme heterogeneidad de los fenómenos económicos. 
Recientemente, se ha desarrollado una línea de investigación sobre la pregunta de cuáles 
son las formas, causas, y consecuencias de las complejidad de los sistemas económicos. 
Rosser (2004)3 clasifica la complejidad que enfrenta un agente económico en tres áreas 
fundamentales. Primero, complejidad en la estructura dinámica –y posiblemente no 
lineal– de los fenómenos económicos, es decir, el hecho frecuente que una pequeña 
perturbación en un sistema económico tenga repercusiones y ramificaciones dinámicas 
en la economía de gran impacto (p.e., un cambio en un precio clave de la economía como 
la tasa de interés). Segundo, la complejidad lógica y computacional que enfrenta un 
agente económico al tomar una decisión cuando existe un gran número de mercados, 
oferentes y demandantes. En particular la noción de equilibrio de los modelos 
económicos es muy compleja: por ejemplo, un equilibrio Walrasiano le exige al agente 
económico la computación de un número enorme de precios relativos, el equilibrio de 
Nash exige una gran capacidad de análisis lógico para anticipar las reacciones de los 
otros jugadores frente a diferentes alternativas de decisión. Tercero, la complejidad en la 
aprehensión del fenómeno económico, es decir, el problema adicional al que el proceso 
de aprehender la realidad económica es, en sí, también muy complejo y no puede ser 
llevado a cabo sin costos excesivamente altos.
Al problema de la complejidad se le suman las restricciones que enfrenta el 
análisis económico en términos de información sobre los fenómenos de interés y sus 
causas. Tradicionalmente las ciencias naturales le han otorgado poco valor al análisis 
probabilístico de los fenómenos. Ello se debe a que muchos de dichos fenómenos pueden 
ser replicados en laboratorios bajo condiciones experimentales controladas. En la 
mayoría de los problemas económicos no resulta factible realizar un análisis 
experimental en circunstancias absolutamente controladas. Por ejemplo, no es posible 
pedirle a un grupo de individuos que vuelva a estudiar una carrera profesional para 
estimar cómo habría sido su perfil de ingreso en estas nuevas circunstancias. En este 
sentido, los economistas usamos los datos disponibles para inferir probabilísticamente la 
capacidad de una teoría para comprimir información pertinente sobre un determinado 
más fenómeno o la congruencia con la que lo hace. Algunas de las ramas de la física o la 
química han adoptado recientemente el esquema metodológico de la economía: por 
ejemplo, la astronomía no cuenta –salvo honrosas excepciones– con “muestras” de 
fenómenos de gravitación universal, sino con un fenómeno único.4 La física subatómica 
3 J. Barkley Rosser, Jr. (2004) “Epistemological Implications Of Economic Complexity”, mimeo, 
Department of Economics, James Madison University.
4 S. G. Djorgovski reporta que el volumen de observaciones disponibles en astronomía se dobla en 
aproximadamente cada año y medio. En cada noche, se produce aproximadamente 1 Terabyte de datos 
adicionales (equivalente a la colección completa de la biblioteca PUC). Ello exige una modelación 
probabilística de los datos. “Virtual Astronomy, Information Technology, and the New Scientific 
1.3
no puede observar directamente un fenómeno sino sus efectos, de los cuales debe inferir 
la validez de una hipótesis teórica. En ambos casos el análisis es frecuentemente 
probabilístico.
Es por estas razones –complejidad del fenómeno y restricciones de información– 
que la economía se basa en el desarrollo y análisis de modelos de comportamiento 
validados empíricamente mediante métodos cuantitativos, en especial, los métodos 
econométricos que se discuten en lo siguientes capítulos.5 La modelación econométrica 
propiamente tal comienzade manera significativa a principios del siglo XX con los 
trabajos de los fundadores de la disciplina (Galton, Pearson, Neyman, Fischer, Frisch, 
etc.) que desarrollaron la base estadística de gran parte de los tests básicos que se usan 
en la actualidad. Pero no fue si no hasta los años 1950 que se masificó el uso de modelos 
econométricos como base del análisis de políticas económicas y para la verificación de 
diversos postulados teóricos. El gran empuje de mediados del siglo XX proviene 
principalmente del desarrollo de un fundamento teórico sólido para la econometría en 
general y para los modelos econométricos de gran escala en particular. Estos últimos se 
beneficiaron de la aparición de bases de datos adecuadas (p.e., cuentas nacionales) y de 
una creciente capacidad de computación. El éxito de la econometría como base del 
análisis empírico es indudable. Ciertamente los modelos empíricos cometerán errores en 
la descripción de los fenómenos que nos interesa modelar; sin embargo, en este contexto 
se aplica la célebre frase del padre de la computación Charles Babbage (1791-1871) 
“Errors using inadequate data are much less than those using no data at all”.
El diseño de modelos analíticos y sus contrapartidas empíricas son, en realidad, 
dos caras de una más moneda: el modo como avanza nuestro conocimiento es mediante 
la continua contrastación de teoría y evidencia. En términos pedagógicos, sin embargo, 
en este libro nos ocuparemos principalmente de los modelos econométricos, los cuales 
serán desarrollados sobre la base de una serie de supuestos que nos permitirán derivar 
estimadores que cumplen con requisitos de calidad y los tests estadísticos asociados a 
dichos estimadores. Luego invalidaremos de manera paulatina dichos supuestos para 
estudiar qué efectos tiene una violación de uno o más supuestos sobre las características 
de dichos estimadores.
El capítulo 2 realiza una revisión de distintos elementos de probabilidades y 
desarrolla con algún detalle el enfoque axiomático de Kolmogorov (1933)6 que es la base 
de la estadística moderna. Este enfoque ofrece una formalización axiomática de la noción 
de probabilidad, cuyas ventajas radican en proveer una teoría completa (todas las 
Methodology”, en Computer Architectures for Machine Perception, eds. V. Di Gesu & D. Tegolo, IEEE press 
(2005).
5 The sciences do not try to explain, they hardly even try to interpret, they mainly make models. By a model is meant 
a mathematical construct which, with the addition of certain verbal interpretations, describes observed phenomena. 
The justification of such a mathematical construct is solely and precisely that it is expected to work . John von 
Neumann.
6 Grundbegriffe der Wahrscheinlichkeitsrechnung, Ergebnisse der Mathematik und ihrer Grenzgebiete, J. Springer 
eds. 1933.
1.4
proposiciones de la teoría se derivan de los axiomas), no-redundante (ningún axioma 
puede ser derivado de otros), y congruente. El objetivo es que el alumno tenga una 
sólida base de análisis probabilístico y, más importante aún, que pueda conectar los 
distintos componentes de la teoría de probabilidades con los componentes básicos del 
análisis econométrico: entre ellos, el experimento aleatorio, las funciones de distribución 
conjunta, condicional y marginal, y la noción de la independencia entre variables 
aleatorias. En particular, esta sección busca que el estudiante entienda cómo los 
econometristas enfrentan el problema de la complejidad del fenómeno que se desea 
modelar.
El capítulo 3 usa la estructura anterior para enfrentar el segundo problema del 
análisis econométrico: la limitación de información. La principal adición al modelo de 
probabilidades desarrollado en el capítulo 2 es la restricción derivada del uso de 
muestras estadísticas y la inevitable necesidad de usar métodos de inferencia estadística 
para emitir juicios informados respecto de alguna hipótesis. El capítulo busca que el 
alumno entienda cómo se transforma la incertidumbre respecto de más los resultados de 
un experimento aleatorio en incertidumbre sobre los parámetros que caracterizan dicho 
experimento, y cuáles son las ventajas y limitaciones de dicha transformación. 
Adicionalmente, se presenta la maquinaria de teoría asintótica que será fundamental en 
el análisis del modelo de regresión lineal del siguiente capítulo.
El capítulo 4 desarrolla el modelo de regresión lineal, que ha sido una de las 
principales herramientas de análisis empírico de los economistas en los últimos 100 años. 
Este modelo, al que usualmente se le acopla el método de mínimos cuadrados como 
técnica de parametrización, permite enfrentar un número muy grande de preguntas en 
economía. A la vez, es suficientemente flexible como para permitir que, en caso que no se 
cumplan alguno de los supuestos que le sustentan, se desarrollen estimadores 
alternativos simples y poderosos. Las propiedades de los estimadores de la familia de 
mínimos cuadrados deben ser estudiadas tanto en muestra pequeña (finita) como grande 
(infinita) para entender a cabalidad el papel de los supuestos del modelo. Igualmente, se 
debe estudiar las propiedades de los tests que se construyen a partir de dichos 
estimadores de mínimos cuadrados, para determinar más su aplicabilidad en 
circunstancias prácticas. Finalmente, la técnica de mínimos cuadrados no es la única 
forma de parametrizar un modelo. En el capítulo se estudian dos alternativas adicionales 
de gran aplicación práctica: el estimador de máxima verosimilitud y el método 
generalizado de momentos.
En el capítulo 5 se estudian los problemas derivados de la violación de los seis 
supuestos sobre los cuales se desarrolló el modelo de regresión lineal en el capítulo 
anterior. La lógica de operar es directa: en primer lugar se estudia el efecto de la 
violación sobre los estimadores de mínimos cuadrados y los diferentes tipos de tests. En 
segundo lugar, propondremos, si es posible, alguna solución, examinando el contexto en 
el que dicha solución es válida. En tercer lugar, se discuten los síntomas que delatan la 
violación de un supuesto y se desarrollan test formales de detección. Por razones 
1.5
pedagógicas, en este capítulo se estudian los problemas de manera aislada, es decir, 
afectando un supuesto a la vez. 
El capítulo 6 extiende la tecnología anterior al área de los modelos no lineales. 
Esta es una literatura muy extensa y, posiblemente, aquella que se ha desarrollado con 
mayor interés en los últimos años como resultado del veloz desarrollo de la 
computación. La gran mayoría de los modelos no lineales se resuelven por medio de 
métodos de cálculo numérico debido a que no existen formas cerradas que permitan 
derivar expresiones matriciales simples para obtener los estimadores. En la primera 
parte de este capítulo se desarrolla el instrumental necesario para entender los métodos 
de optimización no lineal que se usan para la estimación de modelos no lineales. En la 
segunda parte se aplica dicho instrumental para derivar el estimador de mínimos 
cuadrados no lineales y los tests asociados.
El capítulo 7 presenta una introducción a los modelos de datos de panel. Estos 
métodos combinan observaciones de corte transversal con observaciones de series de 
tiempo. Así, nos permiten responder preguntas que no pueden ser respondidas por 
modelos de corte transversal o series de tiempo por separado, porque usan información 
sobre una cohorte donde hay N individuos heterogéneos a los que se les observa 
repetidamente durante un periodo de tiempo T. 
La literatura de la econometría se expande de manera vertiginosa. Por ello, no 
tiene sentido intentar incluir un gran número de modelos, tests, estimadores y 
algoritmosde solución. Inevitablemente aparecerán mejores modelos, tests más precisos 
y estimadores más atractivos. El objetivo del libro es proveer al estudiante de una base 
sólida para entender las nuevas contribuciones que la econometría nos ofrece.
	Capítulo 1
	Introducción

Otros materiales