Por Galo Nuño

Tras una reciente charla de Tom Sargent sobre el pasado de la macroeconomía (a raíz de este reciente trabajo suyo), se me ocurrió la idea de hacer una entrada reflexionando sobre hacia donde se dirige la investigación en macro. Quiero pensar que esta entrada será útil para estudiantes (especialmente doctorando, pero también de grado), profesores al comienzo de sus carreras, y para todo aquel que tenga interés en entender cuál es la frontera de la investigación en economía.

La macro antes de la gran crisis financiera

Antes de discutir cómo es la macro hoy, creo que merece la pena repasar como era la macro hace 20 años, para entender los cambios que se han producido desde entonces. Aunque sé que me estoy dejando cosas en el tintero, creo que es justo afirmar que la macro hace dos décadas estaba dominada por los modelos DSGE y los VAR.

Los modelos DSGE (las siglas significan dynamic stochastic general equilibrium) constituyen la herramienta básica de la macroeconomía teórica. Esencialmente son “economías en miniatura” pobladas por familias que trabajan y consumen, empresas que producen, y un sector público que gasta y recauda impuestos, junto a un banco central que intenta garantizar la estabilidad de precios. Lo que distingue a los modelos DSGE de un juego como el Simcity es que los distintos agentes que pueblan estas economías virtuales toman sus decisiones de forma dinámica, intentando maximizar sus diferentes objetivos (utilidad para las familias, beneficios para las empresas) formando expectativas sobre el futuro de forma “racional” (sin cometer errores sistemáticos). Lo que separa a la macro de la microeconomía o la organización industrial es que estos modelos son de equilibrio general, es decir, los precios que los agentes observan son, a su vez, resultado de las decisiones de los propios agentes (los mercados “se vacían”). Estos modelos se resuelven en un ordenador. Una vez resueltos pueden emplearse para realizar proyecciones macroeconómicas, o para realizar experimentos contrafactuales del tipo “que pasaría si el banco central sube los tipos de interés el mes que viene o si el gobierno baja este o aquel impuesto”.

Los VAR (vectores autoregresivos) son una herramienta empírica para el estudio conjunto de series temporales. Aunque su utilidad es variada (por ejemplo, en previsiones macroeconómicas), una de sus aplicaciones más importantes es, combinados con una “estrategia de identificación”, calcular “respuestas al impulso”, es decir, entender como un shock o sorpresa macroeconómica (por ejemplo, un anuncio fiscal inesperado) afecta a las diversas variables económicas a lo largo del tiempo. Las estrategias de identificación intentan inferir cuales son los auténticos shocks estructurales.

Aunque estas dos herramientas son independientes, hace dos décadas algunos de los trabajos más exitosos en economía (como este sobre política monetaria) consistían en presentar respuestas al impulso a través de un VAR con una cierta estrategia de identificación, y construir luego un modelo DSGE que generaba respuestas parecidas, lo que apoyaba el realismo empírico del mismo) al menos en esa dimensión). Luego ese modelo DSGE podía emplearse para analizar escenarios alternativos mediante experimentos computacionales.

Las críticas a la agenda DSGE-VAR

Durante la crisis financiera de hace ya década y media, la crítica al estado de la macroeconomía como disciplina científica se convirtió en un tema habitual en blogs y artículos de opinión (aquí hay un ejemplo de Paul Krugman en el NY Times, y otro del semanario The Economist). Aunque las críticas variaban de un autor a otro, creo que un resumen relativamente imparcial se centraría en las limitaciones asociadas con los modelos DSGE y los VAR.

En el caso de los DSGE, las críticas se centraban en tres aspectos. Primero, la mayoría de los modelos (especialmente aquellos empleados por los bancos centrales), ignoraban el papel de los bancos y otros intermediarios financieros en la economía. En esos modelos no podía haber crisis financieras porque no había ni siquiera bancos (los hogares invertían directamente en el capital de las empresas o en deuda pública). Segundo, la mayoría de estos modelos se resolvían mediante métodos lineales, por lo que no permitían analizar fenómenos no lineales como la decisión de un país de no pagar su deuda o un pánico bancario. Tercero, estos modelos solían considerar “agentes representativos”, lo que significa que ignoraban la heterogeneidad existente entre familias y empresas, limitándose a modelar el comportamiento de un agente medio. Ese supuesto exige asumir que, o bien todos los agentes son iguales, o tienen acceso a “mercados completos” que les permiten asegurarse frente a cualquier riesgo idiosincrático. Respecto a la crítica de los modelos VAR, el principal talón de Aquiles eran las estrategias de identificación de shocks, sobre las que siempre existía la duda de que fueran realmente adecuadas.

La macro hoy

Las críticas anteriores reflejaban auténticas limitaciones de la investigación economía, aunque desafortunadamente muchas de las propuestas de los críticos eran volver a un estado pre-científico de la economía basado en escuelas de pensamiento preestablecidas alejadas de un intento serio de entender los datos. Afortunadamente, en el mismo momento en que esas críticas se producían, los economistas estaban ya en sus pizarras abordando como resolverlas. Así, hoy en día la frontera en economía gira alrededor de modelos agentes heterogéneos y datos granulares analizados con proyecciones locales (local projections), que describo a continuación.

Los modelos de agentes heterogéneos son la extensión natural de los DSGE, en los que hogares, empresas o bancos son heterogéneos. Dicha heterogeneidad puede ser ex-ante (con características estructuralmente diferentes entre ellos: hay gente más paciente o impaciente) o ex-post (lo que varía es “la suerte”, es decir, las realizaciones de su riesgo idiosincrásico). Estos modelos abandonan el supuesto de mercados completos, modelando en detalle el conjunto de activos disponibles, así como las posibles fricciones financieras a las que se enfrentan los agentes. Como resultado estos modelos permiten analizar la dinámica de la distribución del ingreso y la riqueza (para hogares) o de tamaño y productividad (para empresas). Las herramientas computacionales necesarias para resolverlos son naturalmente más complicadas que en el caso de un agente representativo, ya que, al menos al nivel individual, las no-linealidades juegan un papel fundamental. La heterogeneidad también puede venir a nivel sectorial, como sucede en modelos de redes de producción o de comercio.

Pero si ahora disponemos de laboratorios que permiten estudiar de manera individual a los diversos agentes o sectores, la revolución en el uso de datos granulares es lo que ha permitido disciplinar estos modelos de manera rigurosa. En la última década, los investigadores hemos podido acceder a nuevas fuentes de información detallada, que van desde la información tributaria a los registros de crédito de los bancos centrales. Esto es consecuencia tanto de la revolución del big data, que implica que cada vez más existen estas fuentes de información digital y los recursos computacionales para manejarlas, como de la voluntad de las administraciones públicas en permitir su uso para la investigación (como en el caso del laboratorio de datos BELab del Banco de España). Estos datos permiten disciplinar los modelos de agentes heterogéneos a nivel micro. Pero no solo eso, combinados con la tecnología de local projections (de las que el español Óscar Jordá fue el pionero), permiten analizar la respuesta ante shocks macroeconómicos, no solo de las series macro, sino a nivel individual.

¿Y de donde salen estos shocks si no empleamos VAR? Una nueva “industria” académica intenta aislar shocks mediante las respuestas de datos financieros de alta frecuencia, o el uso de herramientas de machine learning sobre datos “no estructurados”, como discursos o imágenes.

De manera análoga a lo que discutía más arriba, un trabajo de investigación exitoso en la actualidad emplea datos granulares para entender la respuesta micro a un shock económico, y luego construye un modelo de agentes heterogéneos que replica ambos tipos de respuestas, para terminar, realizando experimentos computaciones sobre ese modelo. El juego es parecido al de hace dos décadas, pero la complejidad técnica es mucho mayor.

Este aumento de la complejidad explica porque cada vez más la economía es un juego de especialización. Actualmente los macroeconomistas se especializan más y más en el análisis de datos, o la resolución de modelos, incrementando el número de coautores en cada paper. La época del experto económico que sabía de todo ha quedado atrás: la macro es ya una ciencia madura basada en el trabajo de equipos.

¿Y el futuro?

Como decía el Yogi Berra, hacer previsiones es muy difícil, sobre todo del futuro. No obstante, me la voy a jugar, avisando al lector de que no soy imparcial, ya que tengo un caballo en esta carrera, es decir, mi propia agenda de investigación. Dicho esto, mi convencimiento es que la agenda teórico-empírica que comenzó en los 70-80s del siglo pasado, basada en la micro-fundamentación de la macroeconomía, es imparable. Cada vez vamos a ver modelos más complejos del comportamiento individual, alimentados con datos cada vez más detallados. En unos pocos años podremos disponer de datos de localización (de nuestros dispositivos digitales) o de patrones de gasto (de nuestros bancos) para mejorar aún más el comportamiento de estos modelos, que serán más detallados, y por tanto más complejos. Su resolución requerirá el uso de herramientas como las redes neuronales para poder hacer frente a la maldición de la dimensionalidad en modelos no-lineales. Será un futuro apasionante, en el que la macroeconomía podrá seguir contribuyendo a una mejor comprensión de la realidad, con el objetivo de mejorar la vida de todas las personas.