SciELO - Scientific Electronic Library Online

 
vol.77 issue306A SFC political business cycle: Kalecki’s 1943 model revisitedFurtado VS. Prebisch: A Latin American controversy author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Investigación económica

Print version ISSN 0185-1667

Inv. Econ vol.77 n.306 Ciudad de México Oct./Dec. 2018

https://doi.org/10.22201/fe.01851667p.2018.306.67932 

Artículos

¿Debe la Fed reaccionar ante la inflación de los activos financieros?

Should the FED react to financial bubbles?

Nancy Muller Durán* 

*Facultad de Economía, UNAM (México) Correo electrónico: nan.muller@gmail.com


Resumen

El objetivo de este artículo es analizar el debate Bernanke-Gertler (2000, 2001) versus Cecchetti et al. (2000, 2002) sobre si el banco central debe incluir la inflación de los activos financieros en su regla de política monetaria. La hipótesis de investigación es que la regla monetaria convencional de la Reserva Federal de los Estados Unidos, que garantiza la estabilidad de precios, no necesariamente conduce a la estabilidad financiera. En parte esto implica que la dinámica de los precios de los activos contiene información que esta regla soslaya. Los resultados econométricos del análisis empírico sugieren que, contrario a las dos posiciones del debate referido, la inflación de los activos no es inocua. No obstante, su inclusión en la regla antes mencionada provocaría un sobreajuste de la tasa de interés que podría desestabilizar a la macroeconomía.

Palabras clave: activos financieros; política monetaria; modelo autorregresivo con rezagos distribuidos

Clasificación JEL: E44; E47; E52

Abstract

The debate between Bernanke-Gertler (2000, 2001) versus Cecchetti et al. (2000, 2002) on whether the Central Bank should react to price asset inflation trends is dealt with in the present paper. It is argued that the US Federal Reserve’s conventional monetary policy rule may well guarantee price stability, but does not necessarily simultaneously lead to financial stability. This signals that asset price dynamics convey some relevant information not captured by the Fed’s rule. Contrary to the conclusions reached by both positions in the aforementioned debate, the paper’s econometric results suggest that, while financial assets inflation is not innocuous, its eventual incorporation in the monetary policy rule would trigger an excessive adjustment of the (interest rate) policy instrument and, thereby, a potential macroeconomic instability.

Key words: Financial assets; monetary policy; autoregressive-distributed lag

JEL Classification: E44; E47; E52

Before becoming chairman, I had spoken about monetary

policy after short-term interest rates reached zero. I was

responding to a fairly wide held view that, once rates hit zero,

it marked the exhaustion of monetary policy options. I had

argued then to the contrary. Now the time had come to put

my ideas into practice. We had reached the end of orthodoxy.

Bernanke (2015a, p. 418).

1. INTRODUCCIÓN

La cuestión de si el banco central de Estados Unidos (EE.UU.) debe actuar ante las burbujas especulativas en los mercados financieros como parte de la regla de política monetaria en el marco del modelo de metas de inflación, constituyó el objeto de un gran debate teórico a principios del presente siglo, controversia reanimada por la crisis financiera que provocó la llamada Gran Recesión de 2008-2009. Dados el papel in crescendo del sistema financiero, la mayor frecuencia de las crisis financieras en décadas recientes y lo que Bernanke (2015a, p. 418) llamó “el fin de la ortodoxia”, diversos autores han vuelto a discutir recientemente el problema de si los bancos centrales deben reaccionar ante las burbujas de los mercados financieros y tomar en cuenta la inflación de los activos en su marco de política monetaria (Borio, 2012; Galí y Gambetti, 2015; Aastveit, Furlanetto y Loria, 2017; Blot, Hubert y Labondance, 2017).

Bernanke y Gertler (2000), argumentan que el banco central (BC) no debe responder ante las fluctuaciones de los precios de los activos, a menos que afecten a las expectativas de inflación o a la brecha del producto. Por el contrario, Cecchetti et al. (2000), Cecchetti, Genberg y Wadhwani (2002) y Goodhart y Hofmann (2000), sostienen que el BC debe considerar estas fluctuaciones en su regla de política monetaria. El objetivo de este artículo es analizar la controversia entre estos autores y, en particular, discutir que la posición de Bernanke y Gertler (2000) se centra únicamente en la estabilidad de precios, pero no resuelve el problema de la inestabilidad financiera, mientras que la posición de Cecchetti et al. (2000) y Cecchetti, Genberg y Wadhwani (2002), al sugerir que la Reserva Federal de los Estados Unidos (Fed) debe reaccionar ante las burbujas financieras, implica un ajuste excesivo de la tasa de interés y, por tanto, el riesgo potencial de inestabilidad macroeconómica.

Es cierto que durante el periodo conocido como la Gran Moderación (1982-2007) la Fed concibió a la tasa de interés de los fondos federales como su principal instrumento de política monetaria. Sin embargo, éste no es el único instrumento a disposición de la Fed, como quedó de manifiesto cuando la Fed abandonó la política monetaria convencional. Sin duda, los bancos centrales tienen varios instrumentos a su disposición que utilizan de diversas maneras en distintas circunstancias del ciclo económico, a saber: además de las tasas de interés, los agregados monetarios, las operaciones de mercado abierto, el tipo de cambio, la hoja de balance, etcétera. El hecho de que la Fed haya recurrido a la política monetaria no convencional para combatir la Gran Recesión sugiere que su principal instrumento -la tasa de interés de los fondos federales- no consiguió la estabilidad financiera. Es por ello que en este artículo se explora la cuestión de si un índice de los precios de algunos activos financieros captura información relevante para la consecución del objetivo dual de estabilidad monetaria y financiera.

Ciertamente, el índice aquí utilizado se basa en una metodología ampliamente usada, lo cual de suyo implica que es aceptada y aceptable. En el artículo se justifica que la inclusión de las variables financieras en ese índice tiene un propósito instrumental -como lo tienen otros índices- que consiste en saber si el comportamiento de los precios de los activos contiene información relevante que no debe soslayarse para alcanzar el objetivo dual ya mencionado. La experiencia de la Gran Recesión documenta de forma empírica que la estabilización de la inflación medida por el índice de precios al consumidor no garantiza la consecución de ese objetivo dual (Bernanke, 2015a). A diferencia de otros índices de condiciones financieras (ICF) cuyo objetivo es microeconómico por cuanto procuran capturar “el desempeño de las condiciones financieras de una economía”, el índice de precios de activos (IPA) presentado aquí simplemente intenta capturar el comportamiento de los precios de algunos activos para ilustrar y verificar si este desempeño contiene información útil para el diseño de una política que contribuya a alcanzar la estabilidad financiera. Por lo tanto, en el artículo no se afirma que los movimientos de un ICF causados por las fluctuaciones en el precio de algunos activos se asocian con la existencia de burbujas financieras. Más bien, esta asociación se encuentra en la posición de Cecchetti et al. (2000).

Sin duda, las variaciones en la aversión al riesgo de los inversionistas, así como otros factores no relacionados con la existencia de burbujas en los mercados pueden flexibilizar o restringir las condiciones financieras de la economía y, por ello, se requiere un análisis más complejo para determinar si las fluctuaciones de un índice representan una amenaza para la estabilidad financiera. Pero esta es una afirmación tan general que per se ha de aceptarse a priori, y al mismo tiempo, es de poca utilidad heurística.

La contribución de este trabajo estriba en demostrar que, si bien un índice que capture información de la inflación del precio de los activos que la regla monetaria convencional de la Fed soslaya (trátese de un ICF o de otro índice similar), la incorporación de la volatilidad de los precios de los activos en una regla monetaria extendida no garantizaría la estabilidad financiera, del mismo modo que una regla de Taylor pura, tal como lo comprobó la crisis financiera de 2007-2008 y como lo reconoció el propio gobernador de la Fed, Ben Bernanke. La implicación de política del análisis aquí presentado es que se requiere un segundo instrumento (regulación financiera, por ejemplo) para conseguir el segundo objetivo de estabilidad financiera, inalcanzable con un solo instrumento (la tasa de interés de los fondos federales). Tal como un comentario crítico a una versión anterior de este documento refirió, la estimación contenida en este artículo muestra que los movimientos de los precios de los activos considerados contienen información relevante para la política de estabilización macroeconómica.

En las líneas que siguen analizo la polémica sobre la pertinencia o no de que la Fed reaccione ante las burbujas financieras; enseguida discuto el concepto de ICF y algunas de las principales versiones de éste que se han elaborado para propósitos distintos a la regulación y a la estabilidad financiera. Posteriormente, presento la selección de variables y metodología utilizadas en el análisis econométrico; a continuación, elaboro un índice alternativo con el fin de suministrar evidencia empírica y analítica en favor de la hipótesis relacionada con la contribución específica de este artículo. La sección final resume y concluye.

2. La inflación de los activos financieros y la política monetaria

En el debate sobre la relación entre la inflación de los activos financieros y la política monetaria, existen dos posiciones. Bernanke y Gertler (2001) sostienen que el BC no debe reaccionar ante las fluctuaciones de los precios de los activos, debido a que, en su función de reacción, la tasa de interés, ajusta las presiones inflacionarias o deflacionarias derivadas de las brechas entre la tasa de crecimiento observada y el producto potencial y entre la inflación corriente y la tasa de inflación objetivo, estabilizando así las variables nominales y reales para obtener tasas de inflación y de crecimiento óptimas. Además, Bernanke y Gertler, argumentan que no es posible conocer ex ante si estas fluctuaciones representan una burbuja insostenible o un cambio en los fundamentales (factores reales) de la economía; consideran que una regla agresiva que reacciona ante la inflación, pero no ante los choques del precio de los activos, es la mejor opción para estabilizar el producto y los precios. Esta política de objetivos de inflación flexible es capaz de confrontar burbujas financieras y choques tecnológicos (Bernanke y Gertler, 2001).

Por otra parte, Cecchetti et al. (2000) y Goodhart y Hofmann (2001) sostienen que el BC debe reaccionar ante las burbujas financieras para atemperar los ciclos boom-bust de inversión idiosincráticos de los mercados financieros contemporáneos.1 Siguiendo el razonamiento de Alchian y Klein (1973), Cecchetti et al. afirman que las burbujas afectan a las hojas de balance de las empresas, alteran el costo del capital cuando los precios de los activos exceden a los valores de las variables reales. Proponen una extensión de la regla de Taylor, no con el fin de establecer un objetivo de inflación de estos activos, sino para incluirla en la función de reacción del BC:

rtff-πr=2.5+0.5πt-2+0.5yt-y*+0.05st-1[1]

donde rtff es la tasa de interés de los fondos federales, ( t es la inflación rezagada dos años medida por el índice de precios al consumidor; 2.5 es la tasa de interés real de equilibrio; (y t - y *) es la brecha del producto, y s t-1 es el tamaño de la burbuja del mercado de valores medida como la desviación porcentual inversa de la prima de riesgo presente en las acciones bursátiles durante veinte años. Los resultados de Cecchetti et al. (2000) muestran que aun cuando se considera una prima de riesgo muy pequeña, la inclusión del precio de los activos aumenta y hace más volátil a la tasa de interés respecto de la tasa de interés observada y la implícita en la regla de Taylor.

Bernanke y Gertler (2001) critican la metodología determinista de Cecchetti et al. porque éstos sólo consideran la formación de burbujas como choques exógenos y omiten otros factores; la hipótesis de Cecchetti et al. es insostenible, argumentan, porque el BC no puede saber ex ante si un auge del mercado de valores es originado por las variables reales ni el momento exacto en que la burbuja estallaría. Siguiendo esta línea de razonamiento, Goodhart y Hofmann (2000) analizan la estrecha relación entre los precios de los activos (en particular, los de la vivienda y las acciones) y las principales tendencias de la inflación; los precios de las viviendas son más significativos para la inflación que los de las acciones. Estos autores, sostienen que las autoridades monetarias no deben permanecer pasivas ante los cambios en los precios de los activos incluso cuando existe una relación débil entre éstos y la inflación.

Filardo (2000), a su vez, afirma que, si el BC siguiera las recomendaciones de Goodhart y Hofmann, utilizando así un índice de precios más amplio, el aumento de la inflación de los activos podría ocasionar una política monetaria más restrictiva; argumenta que aun cuando los precios de los activos contienen información relevante sobre la inflación y el producto, el efecto de la volatilidad de la tasa de interés en las variables reales puede ser mayor.2 Filardo considera que la recomendación de Goodhart y Hofmann (2000) no mejoraría necesariamente el desempeño económico de EE.UU.; su conclusión es consistente con la de Bernanke y Gertler (2001): el BC no debe reaccionar ante burbujas de los precios de los activos (véase también Montagnoli y Napolitano, 2005).

En estudios recientes, Galí y Gambetti (2015) estiman la relación entre la variación del precio de los activos (S&P 500 y sus respectivos dividendos) y los componentes de la regla monetaria a fin de medir el impacto que tiene la política monetaria en la formación de burbujas racionales y de esta manera analizan si el BC debe considerar las desviaciones del precio de los activos en sus decisiones de política. Blot, Hubert y Labondance (2017) realizan un estudio empírico y dinámico para estudiar el efecto de la política monetaria en las burbujas financieras. Ambos estudios, se enfocan en la formación de burbujas, contrastando el comportamiento de la oferta monetaria y la tasa de interés con los principales índices bursátiles, pero no hacen explícita cuál debería ser la reacción de los BC ante la inflación de los activos.

Aastveit, Furlanetto y Loria (2017) analizan la respuesta de la Fed ante las variaciones en el precio de los activos (S&P 500 y vivienda). Estos autores demuestran que, durante la gran moderación, el BC tuvo una respuesta más significativa ante las fluctuaciones de los precios de las casas que frente a las del mercado de valores. Sus resultados muestran que la Fed considera otras variables (por ejemplo, el comportamiento de los precios de las casas), además de la inflación y el crecimiento para cumplir su objetivo.3 Es conveniente aclarar, no obstante, que el análisis de Aastveit, Furlanetto y Loria (2017) no se refiere en lo fundamental al problema esencial (¿debe el banco central reaccionar ante la inflación de los activos financieros?) que se discute en este artículo, sino a otro debate, a saber: la querella entre Taylor (2007, 2010) y Bernanke (2015b) acerca de si la de la tasa de interés permaneció en un nivel bajo durante mucho tiempo (2001-2005), provocando así la especulación en el mercado de hipotecas subprime.

Las posiciones dicotómicas de Bernanke y Gertler -regla de política agresiva sin reacción ante burbujas financieras- versus Cecchetti et al. -el BC debe evitar la formación de burbujas especulativas incluyendo la inflación de los activos en la regla de política monetaria- paradójicamente no discute la cuestión de si la tasa interés es suficiente para alcanzar la estabilidad financiera.4 La única diferencia entre ambas posiciones es si la función de reacción debe responder o no ante la inflación de los activos. En este artículo se argumenta que el objetivo dual de estabilidad monetaria y financiera requiere un instrumento dual, la política monetaria y un marco de regulación financiera, consistencia entre instrumentos y objetivos subrayada hace mucho por Tinbergen (1952).

3. El índice de condiciones financieras: un análisis de la literatura

El ICF se define como una medición de las fluctuaciones de las variables financieras y su impacto en la economía, variables que expresan la oferta y la demanda a través de precios o cantidades de instrumentos financieros, principalmente del mercado de valores. El ICF resume la información del estado de la economía contenida en las variables financieras y mide los cambios exógenos que influyen en la actividad económica (Hatzius et al., 2010).

Los análisis del ICF datan de principios de los años 2000, inducidos por la burbuja dotcom. Goodhart y Hoffman (2000) y Mayes y Virén (2001) fueron pioneros al proponer la incorporación de las condiciones financieras en la regla de política monetaria; sugirieron la extensión del índice de condiciones monetarias (ICM) mediante la inclusión de los precios de las acciones y de las viviendas; sus resultados muestran que los precios de las casas son más significativos que los de las acciones respecto de las presiones inflacionarias futuras (Lack, 2003).

Existen varios ICFs cuyos propósitos son diversos: Goodhart y Hoffman (2001) y Montagnoli y Napolitano (2005) construyen un ICF que amplía la regla de Taylor para evaluar el impacto de la política monetaria; Hatzius et al. (2010) y Brave y Butters (2011) lo utilizan para pronosticar la actividad económica, la inflación o el estrés financiero y Lack (2003), Roy, Biswas y Sinha (2015), Gumata, Klein y Ndou (2012) y Ho y Lu (2013) analizan las condiciones financieras del país en cuestión. Algunos de estos autores muestran que un ICF mejora las cualidades de la regla de Taylor, otros suministran un pronóstico del estrés financiero.

Usualmente los ICFs se construyen como promedios ponderados de un conjunto de variables representativas de las condiciones financieras. Las metodologías más usadas para la construcción de estos índices son: regresiones simples, componentes principales, algoritmos de Kalman, modelos de vectores autorregresivos (var, Vector Autoregressive), var aumentado por factor (favar, Factor-Augmented Vector Autoregressive) y análisis de impulso respuesta. Lo más importante en estos modelos es la selección adecuada de las variables financieras, su ponderación para la construcción del índice y su relación con la economía real. Según Myftari y Rossi (2007), la creación de un índice de precios que incluya el de los activos presenta dos problemas. El primero es la ponderación que se dará al precio de los activos en el índice. El segundo es el que las autoridades monetarias tendrían para determinar el momento de la intervención.

En la construcción de un ICF se analiza la forma en que los precios de los activos influyen en la actividad económica. Algunas instituciones financieras han creado sus propios ICFs relacionándolos con un ICM y con los indicadores de estrés financiero. Estos ICFs se utilizan en periodos de fragilidad financiera para identificar el estrés que ocasionaría un movimiento en los precios de los activos. Algunos de los ICFs más importantes que se han construido se muestran en el Cuadro 1.

Cuadro 1 Índices de condiciones financieras 

National FCI (Chicago Fed) Bloomberg Citi Kansas City Financial Stress Index OCDE
Objetivo Medir las condiciones financieras a fin de comparar las condiciones económicas actuales. Monitorear el nivel de tensión y el costo del crédito en los mercados financieros de EE.UU. Resumir los efectos de las variables financieras sobre la actividad económica. Capturar aspectos clave del estrés financiero a fin de proveer información importante sobre el crecimiento económico futuro. Medir las condiciones financieras más allá del ICM.
Nombre corto NFCI BFCI Citi FCI KCFCI OCDEFCI
Metodología Factor dinámico. Componentes principales.Medir el número de desviaciones estándar de un promedio (1994-2008). Regresión econométrica. Componentes principales. Regresión de la brecha del producto sobre rezago de indicadores financieros.
Variables 105 indicadores de riesgo, crédito y apalancamiento en el sistema financiero. 36 indicadores del mercado de dinero, bonos, acciones y derivados. Spreads corporativos, valor de acciones, tipo de cambio, tasas hipotecarias, precios de energéticos. Diferenciales de rendimiento mensuales. Seis variables financieras e incluye una variable de crédito.
Frecuencia Semanal Diario Mensual Mensual

Fuente: elaboración propia con base en Hatzius et al. (2010).

La metodología más utilizada es la de componentes principales y la frecuencia para su cálculo es mensual. La diferencia radica en la selección de variables estimadas en los modelos. Los agentes principantes en estas instituciones financieras emplean los ICFs para obtener una mejor negociación y reducir el riesgo. Aunque los ICFs reportados en el Cuadro 1 tienen funciones microeconómicas, un índice de precios de ciertos activos financieros puede ser útil para fines macroeconómicos y para suministrar información relevante en el diseño de política monetaria y, en particular, para el objetivo de estabilidad financiera. En momentos de inflación baja y estable y alta volatilidad financiera, la regla de política de tasa de interés (por ejemplo, regla de Taylor) puede no ser efectiva para conseguir la estabilidad financiera, y para evitar desequilibrios en los mercados de activos (Holz, 2005; Bernanke, 2015a).

Las interrelaciones y los canales de transmisión entre la inflación de los activos, la economía real, las finanzas y la política monetaria son tan complejos, que la hipótesis de que la tasa de interés es un instrumento eficiente para conseguir estabilidad monetaria y financiera simultáneamente resulta inverosímil (Holz, 2005). El “fin de la ortodoxia” (Bernanke dixit) y la adopción de un marco de política monetaria no convencional a partir de diciembre de 2008 (Bernanke, 2013), así como la iniciativa de regulación financiera Dodd-Frank documentan de facto el reconocimiento por parte de la Fed de la importancia de la volatilidad financiera. Por esta razón, un índice que represente la influencia de los mercados financieros de EE.UU. puede suministrar información relevante para la consecución del objetivo dual ya comentado. En lo que sigue, presento un índice utilizando el método de análisis factorial5 y lo relaciono con la regla de política monetaria de la Fed con el propósito de mostrar que este índice captura información estadística que no debe soslayarse.

4. Selección de variables y metodología

Existe una amplia gama de variables susceptibles de incluirse en un IPA; gracias al desarrollo del sistema financiero, es posible observar y obtener precios y cantidades de distintos activos y mercados. La elección de estas variables dependerá de qué mercados pueden reflejar el estrés financiero y la manera en que pueden revelar la dinámica de los mecanismos de trasmisión monetaria. El análisis se enfoca en índices de precios de dos mercados de la economía estadounidense que influyeron en las crisis dotcom y subprime: el mercado de valores y el hipotecario. La elección consta de cuatro de los índices de precios más representativos del mercado de valores y el índice de precios de las casas durante el periodo 1985-2015 (véase el Cuadro 2).

Cuadro 2 Descripción de las variables para el IPA 

Clasificación Variable Acrónimo Descripción
Mercado bursátil Dow Jones Industrial Average DJI El Promedio Industrial Dow Jones ofrece una vista del mercado de valores de EE.UU. y la economía. Actualmente se compone de 30 empresas en diversas industrias.
NASDAQC Composite Index NASDAQC El índice compuesto Nasdaq es un índice ponderado de la capitalización de mercado conmás de 3000 acciones comunes que cotizan en la Bolsa de Valores nasdaq.
S&P 500 SP El S&P 500 se considera el indicador de precios más importante de capitalización en los EE.UU. para el mercado de renta variable. El índice incluye 500 empresas líderes en las principales industrias de la economía de EE.UU. y cubre el 75% de las acciones estadounidenses.
Wilshire 5000 Full Cap Price Index WS Son los retornos de los precios que no reinvierten los dividendos. La designación Full Cap significa una capitalización de mercado de flotación ajustada que incluye acciones no consideradas disponibles para los inversores “ordinarios”.
Mercado hipotecario S&P/Case-Shiller U.S. National Home Price Index HP Mide los cambios en el valor de los bienes inmuebles residenciales de 20 regiones metropolitanas.

Fuente: elaboración propia con datos de Federal Reserve Economic Data (FRED) de la Federal Reserve Bank of St. Louis, < https://FRED.stlouisfed.org/>.

Con estas variables es posible analizar el comportamiento de estas condiciones financieras en el corto plazo. Para ello considero los índices de precios trimestrales en el periodo 1985-2015 y calculo la primera diferencia para hacerlos estacionarios. La Gráfica 1 muestra el comportamiento de las variables seleccionadas para la construcción del IPA; la inestabilidad de las variables comienza en la década de los años noventa, las más volátiles son el índice Wilshire 5000 y el Dow Jones, cuya importancia para la economía real es evidente; ambos capturan la profundidad de la crisis subprime.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>, y de Yahoo Finance, <https://finance.yahoo.com/>.

Gráfica 1 Comportamiento de las variables del mercado de valores. EE.UU., 1985-2015 

Para construir el índice fue necesario transformar variables. En la frecuencia trimestral de las variables calculo un promedio simple de los datos diarios, semanales y mensuales. No se eliminaron los datos atípicos, dado que el propósito del índice es reflejar el comportamiento general de los precios de los activos considerados. Una vez realizada la transformación de las series, uso el análisis factorial para obtener la importancia relativa de cada una de las cinco variables.

Una vez establecidas las variables y la matriz que expresa los cambios conjuntos de las variables, dado que el determinante de la matriz es positivo (0.015), es posible realizar el análisis factorial. Enseguida se realiza la prueba que mide la adecuación muestral Kaiser-Meyer-Olkin (KMO) y la prueba de esfericidad de Barttlet (véase el Cuadro 3). La medida KMO verifica si las correlaciones parciales entre las variables son suficientemente pequeñas; el estadístico KMO varía entre 0 y 1, mientras más cerca esté de 1 habrá mayor certeza de que las correlaciones entre los pares de variables pueden ser explicadas por otras variables. La prueba de Barttlet contrasta la hipótesis nula de que la matriz de correlaciones es una matriz de identidad. Para este ejercicio el valor KMO es 0.717, lo que indica que el análisis factorial es consistente con esos datos. Dado que el nivel crítico significativo (Sig.) es menor que 0.05, la prueba de Barttlet implica rechazar la hipótesis nula de esfericidad. Por lo tanto, se puede asegurar que el análisis factorial es adecuado para explicar los datos.

Cuadro 3 Prueba KMO y prueba de Bartlett 

Medida de adecuación de muestreo KMO 0.717
Prueba de esfericidad de Bartlett Chi-cuadrado aproximado 616.65
Diferencia 10
Significancia 0.000

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Una vez se ha determinado que el análisis factorial es la técnica apropiada se realiza la extracción de factores mediante el método de componentes principales que calcula las puntuaciones factoriales directamente de las variables originales, por lo que siempre proporciona una solución. La primera información que se obtiene de la prueba de análisis factorial es el Cuadro de comunalidades que indica la proporción de la varianza que puede ser explicada por el modelo factorial obtenido. Como el análisis de componentes principales no supone la existencia de ningún factor común, la comunalidad toma valor inicial de 1; cuanto más cercano a 1 sea el coeficiente, mayor será la capacidad de explicación de la varianza (véase el Cuadro 4).

Cuadro 4 Comunalidades 

Inicial Extracción
DJI 1 0.757
NASDAQC 1 0.63
SP 1 0.876
WS 1 0.951
HP 1 0.106

Nota: el método de extracción es por análisis de componentes principales.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

El Cuadro de comunalidades muestra la capacidad de explicación de la varianza de las variables. Se aprecia que las variables del mercado bursátil tienen una explicación muy robusta, el índice Wilshire 5000 es el más cercano a uno. La variable menos robusta es el índice de los precios de vivienda, que se encuentra al 50% de la capacidad de explicación. En general, los datos indican que es posible explicar la varianza total de las variables. La siguiente información proporcionada por la prueba se refiere al total de la varianza explicada tanto por el método de extracción como por la rotación, los autovalores, así como el número de factores encontrados.

De las cinco variables se extrae un solo factor o componente principal que tiene un valor propio de 3.32 y explica el 66.401% del cambio total de las variables (véase el Cuadro 5). Al ser un modelo unifactorial, no es posible realizar la rotación de los factores. Sin embargo, al ser un caso particular se debe comprobar la correlación de las variables con el factor y la bondad de ajuste de los datos. Para ello, es necesario considerar las cargas factoriales de cada una de las variables observadas con el factor. Estas cargas representan la correlación que mantiene cada variable con el factor extraído. El Cuadro 6 muestra que las cargas para los índices del mercado bursátil son muy cercanas a uno, es decir, hay una correlación muy fuerte, mientras que para el índice de precios de viviendas la carga es relativamente baja. Esto se debe a que esta variable no presenta tantas variaciones. Sin embargo, en términos generales se puede aceptar que el factor es suficiente para explicar la relación que mantienen los índices.

Cuadro 5 Total de varianza explicada 

Componentes Eigenvalores iniciales Sumas de extracción de cargas al cuadrado
Total Porcentaje de varianza Acumulada (%) Total Porcentaje de varianza Acumulada (%)
1 3.32 66.401 66.401 3.32 66.401 66.401
2 0.934 18.689 85.09
3 0.54 10.809 95.899
4 0.143 2.864 98.762
5 0.062 1.238 100

Nota: el método de extracción es por análisis de componentes principales.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Cuadro 6 Cargas factoriales 

Componente 1
DJI 0.87
HP 0.325
NASDAQC 0.793
SP 0.936
WS 0.975

Nota: el método de extracción es por análisis de componentes principales. Un componente extraído.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Una vez obtenida la solución factorial se realiza la estimación de las puntuaciones del factor extraído. El método usado para esa estimación fue el Anderson-Rubin, el cual además de asegurar la ortogonalidad de las puntuaciones factoriales estimadas, brinda estimaciones de media cero, desviación estándar uno y son independientes entre sí. Luego de obtener las puntuaciones, selecciono el vector resultante y tomando 20096 como año base, se construye el IPA. La Gráfica 2 muestra la estimación de este índice.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Gráfica 2 Índicede precios de activos de EE.UU., 1985-2015 

El comportamiento del IPA revela factores al alza y a la baja y, a su vez, facilita la identificación de posibles desbalances. Además de reconocer que es anti-cíclico, el índice captura diversos acontecimientos y acciones de política implementados en EE.UU. en el periodo de análisis. Por ejemplo, el ascenso y el peso relativo de la principación de los mercados financieros en la economía a inicios de la década de los años noventa. También presenta una alta volatilidad de las variables financieras durante el periodo 2007-2008 y luego una drástica caída en 2009, lo que indica una fuerte asociación con la crisis hipotecaria.

5. El IPA y la regla monetaria

Procedo a establecer la relación que mantiene el IPA creado con las variables de la regla de Taylor de la ecuación [2]7 en el periodo 1985-2015.

r=rn*+απ-π*+β(yt-y*) [2]

donde r es la tasa de interés, el instrumento de política monetaria; rn* es un intercepto exógeno que captura cambios en la meta de inflación y que también se puede considerar como la tasa de interés natural; (π – π*) es la brecha entre la tasa de inflación observada (π) y la inflación objetivo (π*); (y t - y *) es la brecha entre el producto observado (y t ) y el potencial (y *); ( y ( son parámetros asociados a la brecha de inflación y del producto respectivamente y miden la reacción de la política monetaria ante cambios en esas variables.

Un problema fundamental de este tipo de regla de Taylor es que la tasa de interés natural es una variable no observable y puede cambiar en el tiempo (Wicksell, 1965 [1898], 1978 [1906]; Clarida, 2015). La estimación de la tasa de interés natural requiere de modelos econométricos complejos como el de equilibrio general dinámico estocástico (Giammarioli y Valla, 2004), el de Laubach y Williams (2003), quienes aplican filtros de Kalman, o el modelo de vectores autorregresivos cointegrado (CVAR, Cointegrated Vector Autoregression) (Sánchez, 2016). En este contexto, Blinder (1998) afirma que, en periodos de inflación estable, la tasa de interés real neutral se puede generar tomando un promedio de la tasa de interés real. Es decir, la tasa de interés natural es una aproximación empírica, no un dato observable.8

Además, existen otras estimaciones para la tasa de interés que miden el impacto económico de la política monetaria no convencional que la Fed llevó a cabo durante el periodo 2008-2016. La tasa sombra (Wu y Xia, 2016) es el resultado de una estimación de un modelo no lineal que analiza cómo opera la economía ante una tasa de interés de corto plazo que se encuentra en el límite cero. Esta nueva herramienta de política monetaria puede ser utilizada como una variable alternativa a la tasa de interés de los fondos federales (incluso en los modelos de equilibrio general dinámicos estocásticos) para estimular la economía.

En la presente investigación tanto la tasa sombra como la tasa de interés natural o de equilibrio no se consideran como variables dentro de la regla de Taylor. La primera porque su objetivo, que es sustituir a la tasa de interés nominal en un marco de política monetaria no convencional, no coincide con la hipótesis de este estudio, es decir, no tiene nada que ver con el objetivo aquí perseguido. La segunda porque de acuerdo con Taylor (1993) la regla monetaria es una medida que tiene que ser ad hoc a cada economía, es decir, originalmente no proviene de un modelo de optimización macroeconómica. La derivación de otras pautas monetarias basadas en la regla de Taylor, como la regla para economía abierta o la inclusión de la tasa natural, surgieron después como resultado del desarrollo de un modelo general. Además, porque si bien para Wicksell (1965 [1898]) la inestabilidad de precios es resultado de la brecha entre la tasa de interés natural y la tasa de interés de mercado, él también reconoce que, empíricamente, la tasa natural de interés es una variable indeterminada.

Para determinar la existencia de una relación de largo plazo entre los componentes de la regla de Taylor propuesta y el IPA, modificamos la ecuación [2] sin considerar a la tasa de interés natural y agregando el parámetro ( y el IPA estimado.

r=απ-π*+βyt-y*+ψIP[3]

Para analizar la relación de largo plazo entre el instrumento de la política monetaria y las variables que integran la regla de Taylor y el IPA, propongo identificar la ecuación [3] en una estructura de corrección de error (largo plazo) de un modelo cointegrado. Para el análisis econométrico, considero las variables que componen la función de reacción del banco central y el IPA para el periodo 1985-2015. Los datos tienen una frecuencia trimestral y las series correspondientes al producto se utilizan en logaritmos y en términos reales. La inflación se calcula a partir del índice de gastos de consumo personal excluyendo alimentos y energía que, junto con la tasa de interés, se usan en términos nominales.

Para determinar si el CVAR es el mejor modelo para estimar de forma empírica esta regla de Taylor ampliada, es necesario realizar la prueba de raíz unitaria a fin de identificar si las variables son estacionarias o no. Al considerar los resultados de la prueba (véase el Cuadro 7) se observa que, la tasa de interés, la inflación, el producto potencial y el observado presentan raíz unitaria, es decir, son de orden I(1), mientras que el IPA presenta orden de integración I(0).

Cuadro 7 Pruebas de raíz unitaria con la prueba de Dickey-Fuller aumentada 

Variable Modelo
Intercepto Tendencia e intercepto Ninguno
I –2.6322 –3.788 0.0158
LYR *100 –1.7596 –1.271 3.7802
LYP *100 –1.9239 –0.0421 1.1274
INF *100 –1.6907 –1.6909 –1.8172
IPA –7.8768 –7.9986 –7.9013
GAPINF –1.6907 –1.6909 0.049
GAPY –3.1654 –3.1605 –2.3822
I –6.3396 –6.382 –6.2595
LYR*100 –4.9506 –5.2099 –2.9431
LYP*100 –1.4763 –2.71 –1.3358
INF*100 –8.1828 –4.6034 –7.9996
IPA –12.7064 –12.6625 –12.7511
GAPINF –8.1828 –4.6034 –7.9996
GAPY –8.4559 –8.4295 –8.4876

Nota: ∆ denota la primera diferencia de la serie. El nivel de significancia es de 5%.

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Las pruebas de raíz unitaria muestran que el CVAR no es el modelo idóneo para analizar la relación de largo plazo entre el IPA y las variables de la regla de Taylor, pues las pruebas de cointegración tradicionales -por ejemplo, las pruebas de la traza y del máximo valor propio de Johansen (1995)-, suponen que todas las variables del modelo tienen el mismo orden de integración, es decir, todas son I(1). En caso contrario, las pruebas de cointegración no son robustas, dado que si en el modelo hay variables de distinto orden rechazan la existencia de cointegración, aunque en realidad sí existe una relación de largo plazo entre las variables. Para superar esta debilidad de las pruebas de cointegración tradicionales, Pesaran, Shi y Smith (2000) proponen una prueba de cointegración basada en modelos autorregresivos con rezagos distribuidos (ARDL) que estima relaciones de corto y largo plazos incluso cuando existe una mezcla de variables estacionarias y no estacionarias. El modelo ARDL es muy útil para probar la presencia de relaciones de largo plazo.

Con base en los términos deterministas de la ecuación, Pesaran, Shi y Smith (2001) proponen cinco casos posibles: 1) sin constante ni tendencia; 2) constante restringida, sin tendencia; 3) constante no restringida, sin tendencia; 4) constante y tendencia restringida, y 5) constante y tendencia no restringidas. Por lo tanto, dada la naturaleza de la ecuación [3], el caso uno es el modelo de regresión ARDL pertinente. El modelo por estimar se expresa de la siguiente forma:

it = ρ1it-1+...+ρkit-k+α0GAPINFt+α1GAPINFt-1+  + αqGAPINFt-q + β0LYRt +β1LYRt-1+  + βsLYRt-s + φ0LYPt +φ1LYPt-1+  +φsLYPt-r + ψ0IPAt+ ψ1IPAt-1+  + ψwIPAt-w+ εt[4]

donde i es la tasa de interés; GAPINF es la brecha de inflación; LYR es el producto real observado; LYP es el producto real potencial (ambos en logaritmos), y ε t es un término de perturbación aleatorio independiente de la serie.

El modelo se realiza con una variable dummy de salto (D2009) debido a que el IPA presenta un cambio estructural en el 2008 derivado de la crisis suprime. El primer paso es seleccionar los rezagos que determinan el modelo ARDL con base en los criterios de información de Akaike (AIC). La prueba determina que los cambios en el IPA, es decir, su volatilidad, explican mejor la relación de largo plazo. Por consiguiente, esta variable es considerada dentro del modelo. Además, se comprueba que el mejor modelo es un ARDL (2, 1, 4,0, 4), es decir, dos rezagos para la tasa de interés, uno para la brecha de inflación, cuatro para el producto observado, cero para el producto potencial y cuatro para la tasa de crecimiento del IPA (DIPA). El segundo paso es comprobar que los errores son serialmente independientes; para ello realizamos las pruebas de correcta especificación y comprobamos la no autocorrelación, la normalidad, la carencia de heterocedasticidad y la linealidad de los residuos (véase el Cuadro 8).

Cuadro 8 Pruebas de correcta especificación-ARDL 

Prueba Estadístico Probabilidad
Correlación serial LM 3.5937 0.1658
Normalidad 3.2027 0.2015
Heterocedasticidad 11.5155 0.7766
Linealidad 0.7105 0.4011

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Para verificar los parámetros se efectúan las pruebas de suma acumulada (cusum, cumulative sum) y cusum al cuadrado (cusumsq, cumulative sum squared), a fin de validar de forma total el modelo (véase la Gráfica 3).

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Gráfica 3 Constancia de parámetros 

Una vez se confirma que los residuos se comportan bien en el sentido usual, se realiza el tercer paso con la prueba límite (Bound test), que se basa en los valores críticos propuestos por Pesaran, Shi y Smith (2000; 2001) para este tipo de cointegración considerando el orden de integración de las variables y las características del modelo estimado. En esta prueba la hipótesis nula es que no existe relación de largo plazo entre las variables. El Cuadro 9 presenta los resultados. El estadístico F es 8.41 y es claro que excede incluso el valor crítico de 1% (límite superior) de significancia. En consecuencia, se rechaza la hipótesis nula aceptando la relación de largo plazo entre las variables. Para conocer el vector de cointegración, la prueba de ARDL muestra que los coeficientes de largo plazo son significativos (véase el Cuadro 10).

Cuadro 9 ARDL-prueba límite 

Estadístico de prueba Valor k
Estadístico F 8.4151 4
Límites de valor crítico
Significancia I0 I1
10% 1.9 3.01
5% 2.26 3.48
2.5% 2.62 3.9
1% 3.07 4.44

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Cuadro 10 Coeficientes de largo plazo- ARDL 

Variable Coeficiente Probabilidad
GAPINF 2.0231 0.0000
LYR 0.7861 0.0101
LYP –0.7847 0.0100
DIPA 1.2010 0.0419
D 2009 29.1543 0.0005

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

Una vez obtenidos los coeficientes se realizó el factor común para crear una brecha del producto. La ecuación de largo plazo en la forma de regla de Taylor ampliada así obtenida es la siguiente:

Con el vector de cointegración del Cuadro 11 identificamos una función correcta, de acuerdo con Taylor (1993), es decir, las relaciones de inflación y producto exhiben una concordancia positiva con la tasa de interés. Los coeficientes estimados para la brecha de inflación (2.02) y del producto (0.78) son similares a los obtenidos por Taylor (1993), 1.5 y 0.5 respectivamente. Lo anterior sugiere que, en el caso de la economía de EE.UU., la Fed mantiene una política monetaria de mayor aversión a la inflación que al producto, es decir, los cambios en la tasa de interés nominal se deben sobre todo a las fluctuaciones de las variables macroeconómicas fundamentales. Por otra parte, la variable cualitativa (D2009) absorbe en gran medida el cambio estructural causado por la crisis subprime. Sobre el IPA en la función de largo plazo, este ejercicio comprueba que la volatilidad de los precios de los activos de corto plazo mantiene una relación positiva con la variable dependiente: el coeficiente estimado (1.20) indica que a largo plazo el banquero central podría mantener aversión respecto a esta volatilidad.

Cuadro 11 Vector de cointegración 

i = 2.02*INF + 0.78*(LYR - LYP) + 1.20*DIPA + 29.15*D2009

Fuente: elaboración propia con datos de FRED de la Federal Reserve Bank of St. Louis, <https://FRED.stlouisfed.org/>.

De la estimación anterior se acepta lo siguiente: 1) aunque la influencia del IPA no es la más significativa, la evidencia muestra que existe una parte del comportamiento de los mercados financieros que no captura el producto, contrariamente a lo que aseguran Filardo (2000) y Bernanke y Gertler (2001); 2) el crecimiento del precio de los activos a largo plazo influye en la tasa de interés nominal, lo que en la lógica del modelo de la política monetaria de la Fed ocasionaría una contracción de la demanda agregada, y 3) cuando la tasa de interés llega al límite cero, su efectividad para garantizar la estabilidad de los mercados financieros se reduce. Esto explica, en parte, la afirmación de Bernanke (2015a) sobre el “fin de la ortodoxia” y la decisión de la Fed de recurrir a una política monetaria no convencional.

6. CONCLUSIONES

En este artículo se han discutido las dos posiciones dicotómicas del debate respecto de la pertinencia de que el BC responda ante las burbujas financieras, incluyendo las fluctuaciones del precio de los activos en la función de reacción de la política monetaria. Asimismo, elaboro un índice para indagar si los movimientos de los precios de algunos activos contienen información relevante que la regla de Taylor convencional de la Fed soslaya. La estimación econométrica de una regla de Taylor ampliada con este índice revela que, en efecto, la inflación de los activos analizados es significativa y que influye en la tasa de interés de manera positiva. Este es uno de los hallazgos más relevantes del presente estudio.

Este hallazgo fundamental de la presente investigación significa que la posición que sostenían Bernanke y Gertler (2001) en el debate que rechaza la relevancia de la inflación de los activos para una regla monetaria eficiente es insostenible. Después del estallido de la crisis financiera de 2007-2008, Bernanke (2015a) ha modificado su posición para admitir la necesidad de la regulación de los mercados financieros. Por otro lado, de acuerdo con los resultados, si se adoptara el razonamiento de Cecchetti et. al. (2000) hasta sus últimas consecuencias lógicas, la extensión de la regla de Taylor para incluir un IPA implicaría un sobreajuste de la tasa de interés que podría provocar una contracción económica en lugar de estabilidad financiera. Es decir, esta segunda posición tampoco es sostenible por sus consecuencias macroeconómicas.

La pregunta que trata de responderse en el artículo no es ambiciosa, sino muy simple, a saber: ¿dada la experiencia de la Gran Recesión es prudente continuar ignorando el ciclo financiero en la estrategia de estabilidad de precios? Nuestra conclusión es que, como sostiene Borio (2012, p. 1), “la macroeconomía sin el ciclo financiero es como Hamlet sin el Príncipe”. Cuando la tasa de interés está acotada por el cero, es decir, cuando se encuentra en la zona conocida como límite cero, el banco central suele confrontar dificultades para disminuirla aún más, tal como lo afirmó Bernanke (2015a). Al llegar a este punto, la Fed recurrió a la política monetaria no convencional reconociendo de facto la menor efectividad de su tasa de interés. Es a esto a lo que Bernanke (2015a) llamó “el fin de la ortodoxia”, lo que se tradujo en que la Fed multiplicara su hoja de balance por más de cuatro veces, para, junto con otras acciones (credit easing, forward guidance, etc.), influir en el comportamiento de los mercados financieros. Por todo lo anterior, después de la crisis reciente los economistas “tratan de manera ardua de incorporar factores financieros en modelos macroeconómicos estándares” que antes “consideraban de manera efectiva como un (simple) velo” (Borio, 2012, p. 1).

Si bien el objetivo de este estudio no es la discusión de un marco de regulación financiera eficiente, sino enfatizar la relevancia de la inflación de los activos financieros y la insuficiencia de la regla de Taylor para conseguir la estabilidad financiera, esta investigación conduce a la conclusión de que los BCs, específicamente la Fed, no deben continuar la política de no intervenir en los mercados para evitar la formación de burbujas especulativas que generan ciclos boom-bust cuyas consecuencias provocan disrupciones prolongadas en la producción, el empleo y la estabilidad social, tal como ha quedado de manifiesto por la Gran Recesión.

En suma, la aportación de este articulo arroja luz sobre aspectos no discutidos en el debate aquí reseñado, a partir de lo cual se derivan otras líneas de investigación (por ejemplo, el papel de los BCs en la poscrisis financiera actual y la regulación de mercados financieros complejos) temas que exceden a la naturaleza de este estudio.

REFERENCIAS

Alchian, A. y Klein, B. (1973). On a correct measure of inflation. Journal of Money, Credit and Banking, 5(1), pp. 173-191. [ Links ]

Aastveit, K., Furlanetto, F. y Loria, F. (2017). Has the Fed responded to house and stock prices? A Time Varying Analysis [Documento de trabajo no. 1713]. Banco de España, España. [ Links ]

Banco de México (2018). Indicadores de holgura para la identificación de presiones inflacionarias. Extracto del informe trimestral octubre-diciembre 2017, reCuadro 11, pp. 275-277. México: Banco de México. [ Links ]

Bernanke, B.S. (2013). The Federal Reserve and the Financial Crises. Princeton: Princeton University Press. [ Links ]

Bernanke, B.S. (2015a). The Courage to Act: A Memoir of a Crisis and its Aftermath. Nueva York: W.W. Norton & Co. [ Links ]

Bernanke, B.S. (2015b). The Taylor rule: A benchmark for monetary policy. Ben Bernanke blog, Brookings, [blog] 28 de abril. Disponible en: <https://www.brookings.edu/blog/ben-bernanke/2015/04/28/the-taylor-rule-a-benchmark-for-monetary-policy/>. [ Links ]

Bernanke, B.S. y Gertler, M. (2000). Monetary policy and asset price volatility [NBER Working Paper no. 7559]. National Bureau of Economic Research, Cambridge, MA. [ Links ]

Bernanke, B.S. y Gertler, M. (2001). Should central banks respond to movements in asset prices? American Economic Review, 91(2), pp. 253-257. [ Links ]

Blinder, A.S. (1998). Central Banking in Theory and Practice, Cambridge, MA: The MIT Press. [ Links ]

Blot, C., Hubert, P. y Labondance, F. (2017). Does monetary policy generate asset price bubbles? [OFCE, Working paper 2017-05]. Observatoire Français des Conjonctures Économiques, París, Francia. [ Links ]

Borio, C. (2012). The financial cycle and macroeconomics: What have we learnt? [bis Working Paper no. 395]. Bank for International Settlements, Basilea, Suiza. [ Links ]

Brave, S.A. y Butters, R.A. (2011). Monitoring financial stability: A financial conditions index approach. Economic Perspectives, 35(1), pp. 22-43. [ Links ]

Cecchetti, S.G., Genberg, H. y Wadhwani, S. (2002). Asset prices in a flexible inflation targeting framework. [NBER Working Paper no. 8970]. National Bureau of Economic Research, Cambridge, MA . [ Links ]

Cecchetti, S.G., Genberg, H., Lipsk, J. y Wadhwani, S. (2000). Asset prices and central bank policy [The Geneva Report on the World Economy no. 2]. International Centre for Monetary and Banking Studies, Geneva. [ Links ]

Clarida, R. (2015). The Fed is ready to raise rates: Will past be prologue? International Finance, 18(1), pp. 1-15. [ Links ]

Filardo, A.J. (2000). Monetary policy and asset prices, Economic Review-Federal Reserve Bank of Kansas City, 85(3), pp. 11-38. [ Links ]

Fuentes, S., 2011. Análisis factorial. Madrid: Universidad Autónoma de Madrid. [ Links ]

Galí, J. y Gambetti, L. (2015). The effects of monetary policy on stock market bubbles: Some evidence. American Economic Journal: Macroeconomics, 7(1), pp. 233-257. [ Links ]

Giammarioli, N. y Valla, N. (2004). The natural real interest rate and monetary policy: A review. Journal of Policy Modelling, 26(5), pp. 641-660. [ Links ]

Goodhart, C. y Hofmann, B. (2000). Do asset prices help to predict consumer price inflation? The Manchester School, 68(1), pp. 122-140. [ Links ]

Goodhart, C. y Hofmann, B. (2001). Asset prices, financial conditions and the transmission of monetary policy. Presentado en la conferencia sobre Asset Prices, Exchange Rates, and Monetary Policy, 2-3 de marzo, Stanford University, Stanford, California. [ Links ]

Gumata, N., Klein, N. y Ndou, E. (2012). A financial conditions index for South Africa [IMF Working Paper no. 2012-196]. International Monetary Fund, Washington, DC. [ Links ]

Hatzius, J., Hooper, P., Mishkin, F., Schoenlholtz, K. y Watson M. (2010). Financial conditions indexes: A fresh look after the financial crisis [NBER Working Paper no. 16150]. National Bureau of Economic Research, Cambridge, MA . [ Links ]

Ho, G. y Lu, Y. (2013). A financial conditions index for Poland. [IMF Working Paper no. 2013-252]. International Monetary Fund, Washington, DC . [ Links ]

Holz, M. (2005). A financial condition index as indicator for monetary policy in times of low, stable inflation and high financial market volatility. Presentado en el 9th Workshop Macroeconomic and Macroeconomics Policies - Alternatives to the Orthodoxy, 28-29 de octubre, Best Western Hotel Steglitz International, Berlín, Alemania. [ Links ]

Johansen, S. (1995). Identifying restrictions of linear equations with applications to simultaneous equations and cointegration. Journal of econometrics, 69(1), pp. 111-132. [ Links ]

Lack, C.P. (2003). A financial conditions index for Switzerland. Monetary policy in a changing environment. Bank for International Settlements, 19, pp. 398-413. [ Links ]

Laubach, T. y Williams, J.C. (2003). Measuring the natural rate of interest. Review of Economics and Statistics, 85(4), pp. 1063-1070. [ Links ]

Mayes, D.G. y Virén, M. (2001). Financial conditions indexes [Working Paper no. 2001-17]. Bank of Finland, Helsinki, Finlandia. [ Links ]

Montagnoli, A. y Napolitano, O. (2005). Financial condition index and interest rate settings: A comparative analysis [Working Paper no. 8.2005]. Università Degli Studi di Napoli “Parthenope”, Istituto di Studi Economici, Nápoles, Italia. [ Links ]

Myftari, E. y Rossi, S. (2007). Asset prices and monetary policy: Should central banks adopt asset-based reserve requirements? Presentado en The Eleventh Berlin Conference of the Research Network Macroeconomic Policies “Finance-Led Capitalism? Macroeconomic Effects of Changes in the Financial Sector”, 26-27 octubre, University of Fribourg, Berlín, Alemania. [ Links ]

Pesaran, M., Shi, Y. y Smith, R. (2000). Structural analysis of vector error correction models with exogenous I(1) variables. Journal of Econometrics, 97(2), pp. 293-343. [ Links ]

Pesaran, M., Shi, Y. y Smith, R. (2001). Bound testing approaches to the analysis of level relationships. Journal of Applied Econometrics,16(3), pp. 289-326. [ Links ]

Roy, I., Biswas D. y Sinha, A. (2015). Financial conditions composite indicator (FCCI) for India. IFC Bulletin no. 39. Indicators to support monetary and financial stability analysis: Data sources and statistical methodologies. Proceedings of the Seven IFC Conference, 4-5 de septiembre de 2014, Irving Fisher Comitte on Central Banl Startistics, Bank for International Settlements . [ Links ]

Sánchez, A. (2016). Should the U.S. Federal Reserve increase the federal funds rate in 2016? Investigación Económica, LXXV(269), pp. 5-42. [ Links ]

Taylor, J.B. (1993). Discretion versus policy rules in practice. Carnegie-Rochester Conference Series on Public Policy, 39, pp. 195-214. [ Links ]

Taylor, J.B. (2007). Housing and monetary policy [NBER Working Paper no. 13682]. National Bureau of Economic Research, Cambridge, MA . [ Links ]

Taylor, J.B. (2010). The Fed and the Crisis: A Reply to Ben Bernanke. [en línea] Disponible en: <https://www.wsj.com/articles/SB10001424052748703481004574646100272016422>. [ Links ]

Tinbergen, J. (1952). On the Theory of Economic Policy. Amsterdam: North Holland Publishing Company. [ Links ]

Wicksell, K. (1965) [1898]. Interest and Prices: A Study of the Causes Regulating the Value of Money. Nueva York: Augustus Kelley. [ Links ]

Wicksell, K. (1978) [1906]. Lectures on Political Economy Vol. II, Money. Fairfield, NJ: Augustus M. Kelley Publishers. [ Links ]

Woodford, M. (2003). Interest and Prices: Foundations of a Theory of Monetary Policy. Princeton: Princeton University Press . [ Links ]

Wu, J. y Xia, F.D. (2016). Measuring the Macroeconomic impact of monetary policy at the zero lower bound. Journal of Money, Credit and Banking , 48(2-3), pp. 253-291. [ Links ]

1 Alchian y Klein (1973) fueron pioneros de esta posición al argumentar que el índice de precios al consumidor sólo refleja la inflación del sector real en un periodo determinado, pero que los consumidores también toman en cuenta la inflación futura de los precios de los bienes que consumen. Por esta razón, el BC debe considerar la inflación de los mercados financieros que no capturan las medidas convencionales (cf. también Filardo, 2000).

2 Como argumentaré más adelante, del análisis empírico del presente artículo se infiere una conclusión similar a la de Filardo (2000): la inclusión de la inflación de los activos financieros en una regla de Taylor extendida podría requerir ajustes drásticos en la tasa de interés que podrían tener efectos desestabilizadores en las variables reales.

3 La Fed no es el único banco central que en la práctica no opera con una regla de Taylor pura. Otros bancos centrales (por ejemplo, el Banco de México) utilizan indicadores de holgura en el manejo de su función de reacción para conseguir la meta de inflación (véase Banco de México, 2018).

4En sus memorias, Bernanke (2015a) reconoció, después de la crisis financiera que generó la Gran Recesión, los límites de la regla de Taylor a este respecto.

5 El análisis factorial es una técnica de reducción de dimensión de datos. Su propósito es encontrar el número mínimo de dimensiones capaces de explicar el máximo de información contenida en los datos. Todas las variables de análisis cumplen el mismo papel: son independientes en el sentido de que no existe a priori una dependencia conceptual de unas variables sobre otras (Fuentes, 2011), analiza la varianza común de todas las variables y, partiendo de una matriz de correlaciones, simplifica la información y opera con las correlaciones elevadas al cuadrado que expresan la proporción de varianza común entre las variables.

6 Seleccionado con base en las condiciones posrecesión que presenta el ciclo económico del producto interno bruto (PIB) de EE.UU. para ese periodo. Asimismo, la Federal Reserve Bank of St. Louis establece 2009 como año base en sus estadísticas.

7Según Woodford (2003), esta regla es la versión contemporánea de la norma de Wicksell.

8La crítica relativa a que en el artículo no se incluye “una tasa real neutral” y que, por tanto, esto sesgaría los resultados del análisis en rigor estriba en un argumento metafísico: Wicksell (1965 [1898]) y analistas recientes a los que alude esta crítica postulan una tasa real neutral o, como la llamaba Wicksell, una tasa de interés natural. Sin embargo, el recurso abstracto y deductivo consistente en postular (en el sentido de suponer su existencia abstracta para efectos analíticos) no implica de manera inmediata su existencia empírica. Los límites analíticos del postulado de la tasa natural de interés los reconoció el propio autor de este concepto, Knut Wicksell (1898). Igualmente, metafísico es el argumento de que debería incorporarse la tasa de interés sombra que captura el efecto de la política no convencional en una tasa de interés sombra, que también es un supuesto. A propósito de esta crítica, nótese que resulta contradictorio afirmar, por una parte, que la tasa de interés de referencia es el instrumento de la política monetaria y, por otra parte, sostener que la tasa de interés sombra (metafísica) es más precisa que la de referencia porque ésta se mantuvo en el límite cero.

Recibido: 12 de Febrero de 2018; Aprobado: 04 de Agosto de 2018

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons