La economía de la década de 2020 es diametralmente opuesta a la que imperaba a mediados del siglo XX, cuando se diseñó gran parte del conjunto de herramientas estándar que todavía utilizan los economistas.
En la década de 1950 y 1960, tuvo lugar una formalización de la economía en el contexto del crecimiento y el empleo impulsados por el sector manufacturero, que producía bienes estandarizados, y el predominio en el comercio de los productos terminados en lugar de los componentes. La economía keynesiana determinó las categorías estadísticas del Sistema de Cuentas Nacionales y de los modelos lineales de entrada-salida, y los modelos macroeconómicos nuevos que diseñan hoy en día los econometristas.
Muchas de las autoridades encargadas de definir las políticas en la actualidad aprendieron economía en libros de texto y cursos basados en esa economía relativamente ordenada. En concreto, el marco para evaluar las políticas se fundamentaba en los teoremas básicos de la “economía del bienestar”, la rama de la disciplina que estudia si los resultados económicos son deseables o no. Según esta teoría, el mercado ofrece los mejores resultados posibles, siempre y cuando se cumplan ciertos supuestos básicos.
Huelga decir que esto raramente sucede. Por ejemplo, para que esta teoría fuera válida, las personas deberían tener preferencias fijas, incluso por productos que aún no existen. Todos los productos deben ser “rivales” o ser consumidos por una única persona. Sin embargo, muchos de ellos son bienes no rivales: desde la atmósfera hasta las carreteras públicas, pasando por las películas digitales. No debe haber externalidades como la contaminación o las emisiones de CO2. Ninguna empresa debe tener poder de mercado —sino que debe haber una competencia perfecta— y deben presentarse rendimientos constantes a escala a medida que aumenta el volumen de producción. Es más, en la década de 1970, el premio nobel Kenneth Arrow demostró su “teorema de la imposibilidad”, según el cual es imposible (partiendo de una serie de supuestos muy razonables) determinar el bienestar del conjunto de la sociedad a partir de la suma del bienestar de sus integrantes.
Momento de cambio
En consecuencia, durante al menos los últimos 40 o 50 años, la falta de una economía del bienestar sólidamente fundamentada ha desembocado en un vacío incómodo en el ámbito de la economía. Las autoridades deben escoger el que, a su parecer, es el mejor curso de acción para la sociedad, empleando para ello las mejores herramientas económicas a su alcance. Una de esas herramientas, de uso generalizado, es el análisis de la relación costo-beneficio. Otra consiste, simplemente, en impulsar el crecimiento económico, ya que esto eleva los niveles de vida. Como suele decirse, las herramientas económicas funcionan en la práctica, pero no en la teoría.
Pero ya no dan más de sí. Es hora de volver a impulsar la economía del bienestar. Para ello, hay que alejarse del conjunto de supuestos simplistas que han moldeado la forma de ver el mundo de generaciones y generaciones de autoridades económicas. ¿Por qué ahora? Pues porque la economía ha cambiado de manera tan fundamental que ahora la disciplina debe hacer lo propio.
Un cambio evidente radica en la urgencia de responder a la crisis ambiental. Tanto el cambio climático como la pérdida de biodiversidad están poniendo en riesgo la futura prosperidad económica, además de entrañar una serie de posibles amenazas existenciales. A mediados del XX, la mayor restricción del crecimiento económico era la escasez de capital físico y humano, que requirió una cuantiosa inversión tras la guerra. Para mediados del siglo XXI, la naturaleza será la principal limitación. Los economistas deben empeñarse en elaborar estadísticas sobre el capital natural, concebir nuevas formas de cuantificar el costo social de los servicios de la naturaleza y, sobre todo, integrar el análisis de la economía humana y la naturaleza de manera significativa, en lugar de relegar esa cuestión a “externalidades” puntuales.