SciELO - Scientific Electronic Library Online

 
vol.19 número1Fuentes de sobrecostos y distorsiones en las empresas eléctricas públicas de México índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Economía mexicana. Nueva época

versión impresa ISSN 1665-2045

Econ. mex. Nueva época vol.19 no.1 México  2010

 

Artículos

 

El problema al final de la muestra en la estimación de la brecha del producto

 

The End–of–Sample Problem in Output Gap Estimates

 

Arturo Antón Sarabia*

 

* Profesor–investigador, División de Economía, Centro de Investigación y Docencia Económicas (CIDE), México, D.F. arturo.anton@cide.edu

 

Fecha de recepción: 25 de junio de 2008;
fecha de aceptación: 9 de junio de 2009.

 

Resumen

El documento evalúa en qué medida se puede aminorar el problema de estimación al final de la muestra inherente al filtro Hodrick–Prescott (HP) para el cálculo de la brecha del PIB. Para ello, se propone el filtro de St–Amant y van Norden (1997) con la utilización de datos para México bajo métodos univariados y multivariados; adicionalmente, se realizan estimaciones alternativas de la brecha con el filtro de Christiano y Fitzgerald (2003), y mediante la suposición de una tendencia lineal en la serie del PIB. Los resultados sugieren que, en promedio, el método univariado de St–Amant y van Norden y la estimación con tendencia lineal permiten reducir sustancialmente el problema de estimación al final de la muestra del filtro HP. Los resultados se utilizan para ofrecer una interpretación sobre la conducción de la política monetaria en México durante 2001–2002.

Palabras clave: PIB potencial, brecha del producto, problema al final de la muestra, México.

 

Abstract

This paper evaluates to what extent the end–of–sample problem inherent to the Hodrick–Prescott (HP) filter may be ameliorated when estimating the output gap. For that purpose, the filter of St–Amant and van Norden (1997) is proposed using Mexican data under both univariate and multivariate methods. As a reference, the filter of Christiano and Fitzgerald (2003) and a simple linear trend method are also used. On average, the results suggest that both the univariate method of St–Amant and van Norden and the linear trend method may significantly decrease the end–of–sample problem of the HP filter. These results are used to interpret the conduct of monetary policy in Mexico during 2001–2002.

Keywords: GDP trend, output gap, end–of–sample problem, Mexico.

Clasificación JEL: C82; E32.

 

Introducción

La importancia de la estimación de la brecha entre el producto observado y el potencial es bien conocida para la conducción de la política monetaria. Por ejemplo, un nivel de producción por encima de su potencial sugiere presiones inflacionarias que la autoridad monetaria debe tomar en cuenta al momento de tomar sus decisiones de política. De hecho, la popularidad de las reglas monetarias tipo Taylor (1993) ha motivado que la brecha del producto sea un insumo relevante para la autoridad monetaria. En este contexto, para el tomador de decisiones resulta de interés conocer cuál es el nivel de la brecha más reciente, de acuerdo con la información disponible. Sin embargo, la estimación del PIB potencial usualmente requiere el uso de filtros estadísticos, los cuales típicamente adolecen de un problema de estimación al final de la muestra.1 Esto se debe a que dichos filtros estiman la tendencia de la variable para una fecha en particular, mediante el uso de datos previos y posteriores a esa fecha. Sin embargo, hacia el final de la muestra existen problemas para identificar el valor de la tendencia, puesto que existen cada vez menos datos futuros para tal estimación. Esto implica que el nivel de la brecha más reciente podría estimarse con un margen de error considerable, lo cual arroja serias dudas sobre su utilidad práctica para la conducción de la política monetaria. De hecho, Orphanides y van Norden (2002), y Cayen y van Norden (2005), reportan que la mayor parte de las diferencias entre la brecha del producto originalmente estimada y aquélla sujeta a revisiones posteriores proviene de las estimaciones obtenidas al final de la muestra más que de las revisiones posteriores a los datos originalmente publicados.

El objetivo del presente artículo consiste en evaluar en qué medida el problema al final de la muestra para la estimación de la brecha del producto puede aminorarse cuando se usan filtros estadísticos.2 Para tal efecto, se utiliza el método de corrección al final de la muestra propuesto por St–Amant y van Norden (1997) (método SAVN, de aquí en adelante). Dicho método consiste en añadirle un término adicional al problema de minimización estándar del filtro Hodrick–Prescott (1997), que presumiblemente es una de las formas más populares para extraer el componente de tendencia de una serie en particular. Este término adicional tiene como objeto castigar las desviaciones de la tasa de crecimiento de la tendencia, respecto a la tasa de crecimiento de largo plazo de la serie en las últimas observaciones de la muestra.

La intuición sobre la manera en que el método SAVN ayuda a aliviar parcialmente el problema de estimación al final de la muestra del filtro Hodrick–Prescott (filtro HP, de aquí en adelante) es la siguiente.3 Como es bien sabido, el filtro HP resuelve un dilema entre el tamaño de las desviaciones respecto a la tendencia y la suavidad de dicha tendencia. Ante un choque positivo y temporal, el filtro enfrenta el dilema de cambiar la tendencia significativamente, ya que esto implica aumentar la tendencia antes del choque y disminuirla después. Sin embargo, al final de la muestra no existe dicho dilema, puesto que la suavidad de la tendencia no es un objetivo a considerar bajo el filtro HP estándar. Esto implica que la tendencia responda más a choques transitorios hacia el final de la muestra que hacia la mitad de la muestra. Para remediar parcialmente este problema, el término extra del método SAVN penaliza que la tendencia responda relativamente más a los choques transitorios en los últimos datos de la muestra.

Para evaluar este método, se lleva a cabo una comparación entre una serie de brechas estimadas de acuerdo con el método SAVN y la brecha estimada con un filtro HP tradicional. Si utilizamos la terminología de Orphanides y van Norden (2002), la comparación se realiza a través del uso de estimaciones "finales" y "cuasi reales" de la brecha. En particular, la estimación "final" se realiza con la utilización del filtro HP estándar y la serie completa de datos, mientras que la estimación "cuasi real" se lleva a cabo mediante distintos filtros estadísticos y sólo un subconjunto de la serie completa de datos. Como se detalla en la sección III.2, la diferencia entre la estimación "final" y "cuasi real" de la brecha del producto permite cuantificar la severidad del problema de estimación al final de la muestra. La comparación se lleva a cabo con el uso de métodos univariados y multivariados. En este último caso, el método propuesto es el de la función de producción.

De manera simultánea, la estimación "cuasi real" de la brecha se lleva a cabo a través del filtro de bandas propuesto por Christiano y Fitzgerald (2003). Su uso obedece a que los autores reportan que este filtro es superior al filtro HP tradicional para estimar la brecha del producto hacia el final de la muestra.4 Adicionalmente, la brecha "final" estimada con el filtro HP estándar se compara con una brecha que se obtiene de suponer que la serie del PIB sigue una tendencia lineal. Este método de estimación frecuentemente se utiliza en la literatura de ciclos económicos reales (véase, por ejemplo, Kehoe y Prescott [2002] y las referencias allí incluidas). La ventaja de este método es que, por construcción, no adolece del problema de estimación al final de la muestra.5

Los resultados sugieren que, en promedio, el uso de los métodos SAVN univariado y de tendencia lineal permiten reducir los problemas de estimación hacia el final de la muestra de manera sustancial. En comparación con el uso del filtro HP tradicional, la correlación entre la estimación "final" y "cuasi real" de la brecha se incrementa entre 23 y 28 por ciento, y es mayor a 0.9; el error cuadrático medio se reduce entre 28 y 31 por ciento, y la frecuencia con la cual ambas series difieren en el signo de la brecha se reduce entre 45 y 64 por ciento. Además, se encuentra que estos dos métodos para extraer el componente de tendencia de la serie del PIB son superiores al filtro de Christiano y Fitzgerald (2003) a lo largo de varias dimensiones estadísticas.

Las implicaciones del problema de estimación al final de la muestra se analizan mediante un ejemplo sobre la conducción de la política monetaria para el periodo 2001–2002 en México. Durante 2001 y parte de 2002, las condiciones monetarias en México se relajaron de manera considerable. Como consecuencia, la inflación terminó 1.2 puntos porcentuales por encima de la meta de inflación de 4.5 por ciento en diciembre de 2002. Una posible interpretación de esta serie de decisiones de política es que, con base en una estimación "cuasi real" de la brecha utilizando el filtro HP estándar, el componente cíclico del PIB se encontraba significativamente por debajo de su nivel potencial durante el año 2001, hasta alcanzar un valor mínimo de –3.5 por ciento durante el cuarto trimestre del mismo año. Presumiblemente, esta estimación constituye una aproximación razonable a la brecha que habría observado el Banco Central con base en la información disponible al momento. Sin embargo, tanto la estimación "final" del filtro HP como la estimación "cuasi real" del método SAVN sugieren que la caída en el componente cíclico del PIB habría sido mucho menor durante dicho periodo.

Existe un par de artículos en la literatura que guarda cierta relación con el presente trabajo. Orphanides y van Norden (2002), y Cayen y van Norden (2005), evalúan la confiabilidad de las estimaciones de la brecha del producto en tiempo real. En dicho contexto, cualquier revisión futura a la estimación original de la brecha se puede explicar, ya sea por revisiones posteriores a los datos, por disponer de una serie de tiempo más larga conforme el tiempo avanza (el "problema al final de la muestra") o, en algunos casos, por el uso de distintos parámetros en los modelos. Los autores están interesados en evaluar la importancia relativa de cada una de estas posibilidades para explicar las revisiones futuras a la estimación original de la brecha del producto. Sin embargo, estos artículos no examinan en qué medida se puede resolver el problema de estimación de la brecha del producto al final de la muestra.

 

I. Descripción de las metodologías

I.1. El filtro de St–Amant y van Norden

Como es bien sabido (véase Laxton y Tetlow, 1992; Butler, 1996; St–Amant y Van Norden, 1997, entre otros), el filtro HP sufre de una pérdida considerable de exactitud al final de la muestra. Dicho problema se debe a que la estimación del componente de tendencia bajo técnicas univariadas requiere información futura y pasada de la serie. Para resolver parcialmente este problema, St–Amant y van Norden (1997) proponen un ajuste al filtro HP estándar. El problema de optimización en dicho caso se puede definir en los siguientes términos:

En la expresión anterior, los primeros dos términos son idénticos al problema de minimización del filtro HP estándar. La novedad radica en el último término, donde uss es una constante (determinada por el investigador) igual a la tasa de crecimiento de la serie en el largo plazo, y λss≥ 0 es el castigo dado a las desviaciones de la tasa de crecimiento de la tendencia respecto a su valor de largo plazo. Dicho término permite suavizar la tendencia en los últimos j periodos de la muestra. En el caso particular λss = 0, es posible recuperar el filtro HP estándar. La ventaja de este método es que sólo requiere la especificación de los parámetros λ, uss y λ ss.

I.2. El método de función de producción

Una forma de estimar el producto potencial consiste en utilizar la metodología de la función de producción.6 En este caso particular, se asume que la producción Yt depende del acervo de capital físico Kt ajustado por la utilización de la capacidad instalada vt , las horas trabajadas Lt y la productividad total de los factores At , de acuerdo con la siguiente función de producción Cobb–Douglas:

donde 0 < α < 1 representa la elasticidad del ingreso respecto al acervo de capital. Como puede apreciarse, se supone una tecnología con rendimientos constantes a escala en capital y trabajo.

La estimación del producto potencial de acuerdo con la metodología de la función de producción típicamente se realiza en tres etapas:

1. Se construyen las series de acervo de capital, horas trabajadas y productividad total de los factores.

2. Se estima el nivel potencial para las horas trabajadas y la productividad total de los factores.

3. Las series estimadas en el paso anterior se agregan en la función de producción (2) para obtener una estimación del producto potencial.

Cabe señalar que, para estimar el nivel potencial de las horas trabajadas y la productividad total de los factores, en este artículo se utiliza el filtro SAVN descrito en (1).

I.3. El filtro de Christiano y Fitzgerald

Christiano y Fitzgerald (2003) proponen un filtro de bandas para extraer el componente de tendencia de la serie, el cual no requiere conocer la verdadera representación de la serie de tiempo de los datos (filtro CF, de aquí en adelante). En particular, el filtro se construye bajo el (en muchos casos, falso) supuesto de que los datos originales están generados por un proceso de caminata aleatoria. Si se quiere aislar el componente de los datos originales xt con un periodo de oscilación entre pl y pu, donde 2 ≤pl< pu< ∞ la aproximación del filtro de caminata aleatoria t se estima como

para t = 3,4,..., T– 2. En la expresión anterior, los términos Bj, T– t y t –1 representan las ponderaciones (variables en el tiempo) sobre los datos originales para construir el filtro de caminata aleatoria t.7 Estas ponderaciones a su vez son función de las especificaciones para pl y pu. Expresiones similares para t también se pueden obtener para los periodos t = 1, 2, T – 1 y T (véase Christiano y Fitzgerald, 2003, para mayores detalles). De manera interesante, los autores muestran que esta especificación para extraer el componente de tendencia de la serie original no produce diferencias notables respecto a una aproximación óptima del filtro de bandas.

Cabe señalar que el filtro de Christiano y Fitzgerald (2003) está irremediablemente expuesto al problema de estimación al final de la muestra. Sin embargo, los autores reportan que, inclusive al tomar en cuenta dicho problema, su estimación es de mejor calidad que la obtenida con el filtro HP. Con base en estos hallazgos, resulta de interés evaluar el desempeño del filtro SAVN respecto al de Christiano y Fitzgerald (2003).

I.4. El método de tendencia lineal

En el presente trabajo, el método de tendencia lineal simplemente consiste en ajustar los datos observados del PIB mediante una especificación de la forma

donde YtP denota el logaritmo natural de la tendencia del PIB en el periodo t; k > 0 es una constante, y μ representa la tasa de crecimiento (constante) de la serie en cuestión.

 

II. Datos y estimación

Los datos para cada una de las series son trimestrales y se desestacionalizan previamente mediante el método ARIMA X–12. El periodo de análisis comprende de 1987:Q1 a 2007:Q1 debido a que los datos necesarios para construir la serie de horas trabajadas sólo están disponibles a partir del primer trimestre de 1987. Naturalmente, la estimación del PIB potencial bajo el método univariado sólo requiere información sobre la serie misma.

En el caso de la estimación multivariada por el método de función de producción, se requiere información sobre el acervo de capital, el número de horas trabajadas y la productividad total de los factores. En dicho caso, la estimación del producto potencial está dada por

dondedenotan el nivel potencial de las variables At, vt y Lt, respectivamente. En la expresión (3), el parámetro a, que mide la fracción del ingreso total destinada al factor capital, se fija en 0.31. Este valor es razonable de acuerdo con las observaciones de Gollin (2002) y con las estimaciones reportadas por García–Verdú (2005) para México, con el uso de información a nivel de hogares. Como referencia adicional, Bergoeing et al. (2002) sugieren un valor de a para México de 0.30. Los detalles sobre cómo se construyen las series requeridas y cómo se estima el nivel potencial de cada serie se encuentran disponibles en el documento de trabajo asociado con este artículo (Antón, 2008). En el caso de la estimación del nivel potencial de cada serie, la adopción del filtro SAVN requiere la especificación de tres parámetros (λ, λss y uss), cuya estimación se detalla a continuación.

En la expresión (1), el parámetro de suavizamiento λ es ajustado para que sea consistente con los datos de México, de acuerdo con la metodología de Marcet y Ravn (2004). Dichos autores argumentan que las características de los ciclos económicos son distintas entre países, por lo que en principio resulta inapropiado utilizar el mismo parámetro de suavizamiento que el que típicamente se utiliza para los datos trimestrales de EUA (λ = 1600).8 En consecuencia, la estimación de la brecha del PIB para México en principio podría ser inapropiada si se utilizara un valor de λ igual a 1600. Para resolver este problema, Marcet y Ravn (2004) proponen un método para elegir λ de forma sistemática. En particular, el método consiste en escoger un valor de λ para México (λmx) tal que la variabilidad de la aceleración de la tendencia respecto a la variabilidad del componente cíclico registrada en los datos mexicanos sea igual a la observada en los datos de EUA, al suponer un valor de λeua de 1600. Al aplicar el método de Marcet y Ravn (2004) a los datos mexicanos, se encuentra que λmx = λ= 1096 bajo el periodo de estudio.

El siguiente paso consiste en definir el parámetro λss. Debido a que no existe una referencia a priori sobre el valor del término de castigo λSS en la ecuación (1), se decide adoptar λss = 1096. Finalmente, la especificación de uss depende de la serie en cuestión. Para las series que en teoría son estacionarias, se adopta un valor de uss = 0. En los demás casos, uss se fija para ser consistente con el promedio de la serie en cuestión durante el periodo de referencia.

 

III. Resultados

III. 1. Estimación de la brecha del PIB con muestras completas

Para ofrecer una idea de cómo la estimación de la brecha del producto podría verse afectada por las modificaciones propuestas al filtro HP estándar, a continuación se presentan los resultados bajo distintos supuestos si se utiliza un método univariado y la muestra completa. Al respecto, se consideran las siguientes alternativas:

(i) el filtro HP con un valor de λ de 1600;

(ii) el filtro HP con un valor de λ de 1096, que es el valor apropiado para México de acuerdo con la metodología de Marcet y Ravn (2004); y

(iii) el filtro HP con un valor de λ de 1096 y corrigiendo por el problema al final de la muestra, de acuerdo con el método SAVN. En este caso, se decide fijar uss = 0.03, que es la tasa de crecimiento promedio del PIB durante el periodo.

Los resultados correspondientes se presentan en la gráfica 1. Como puede observarse, las tres especificaciones arrojan resultados similares entre sí, inclusive hacia el final de la muestra.9

En la gráfica 2 se presentan las estimaciones de la brecha del producto de acuerdo con el método multivariado de la función de producción, el filtro CF y el supuesto de tendencia lineal. En dichas estimaciones se utilizó la serie completa. Para propósitos de comparación, se presenta la brecha estimada con el filtro HP estándar con un valor para el parámetro de suavizamiento de λ= 1096. Se puede observar que la serie proveniente del método de función de producción es muy similar a aquella del filtro HP para los periodos previos al año 2001. Sin embargo, al final de la muestra la diferencia entre ambos métodos es de 2.2 puntos porcentuales.10 Por su parte, la estimación de la brecha proveniente del filtro CF se mueve en forma muy similar a aquella del filtro HP, aunque la diferencia entre ambos métodos es de 1 punto porcentual al final de la muestra. Por último, el método de tendencia lineal y el filtro HP sugieren brechas similares al final de la muestra.

En conclusión, los resultados de las gráficas 1 y 2 sugieren que el filtro HP con valor de λ = 1096 puede considerarse un buen referente para la estimación "final" de la brecha del producto, si se exceptúan los periodos extremos de la muestra debido a problemas bien conocidos de estimación en dichos casos.

III.2. Evaluación del problema al final de la muestra

Con objeto de evaluar el método SAVN, en esta sección se procede a comparar las estimaciones "final" y "cuasi real" de la brecha del producto, según la terminología de Orphanides y van Norden (2002).11 En particular, suponga que el investigador cuenta con una serie finita de T observaciones del PIB. Dado el método univariado de filtrado, el investigador típicamente utiliza la serie completa de T observaciones para extraer su componente de tendencia. En dicho caso, la serie resultante de las desviaciones del producto respecto a su tendencia se denomina la "estimación final" de la brecha. Sin embargo, suponga que en tiempo t < T el investigador sólo puede observar una serie t de datos del PIB. En dicho caso, la estimación de la brecha en tiempo t se realiza utilizando las observaciones de 1 hasta t de la serie de datos original. En esta forma, la "estimación cuasi real" de la brecha se puede construir al añadir la estimación de la brecha en t + 1 a la brecha estimada en tiempo t, y así sucesivamente hasta que t + j = T, con j > 0.12 Por construcción, la estimación cuasi real de la brecha coincide con la estimación final de la brecha sólo en t + j.

Si se exceptúan las primeras y últimas observaciones de la muestra, la estimación "final" ofrece una aproximación razonable de la brecha del producto a lo largo del periodo de análisis. Por el contrario, la estimación "cuasi real" está sujeta al problema de estimación al final de la muestra por construcción. Dado que tanto la estimación "final" como la "cuasi real" se construyen con la misma serie de datos, la diferencia entre ambas es reflejo del "problema de colas", inherente a los métodos de filtrado.

En los siguientes ejercicios, la "estimación final" de la brecha toma como referencia el filtro HP estándar con datos para el periodo 1987:Q1–2007:Q1. Sin embargo, para el análisis estadístico se eliminan los primeros y los últimos dos años de la muestra. Con ello, el periodo de análisis relevante se reduce a 1989:Q1–2005:Q1. Por su parte, la "estimación cuasi real" de la brecha se lleva a cabo mediante el filtro HP estándar, el filtro SAVN bajo los métodos univariados y multivariados descritos anteriormente, y el filtro CF. Finalmente, para propósitos de comparación, se estima una brecha con la suposición de una tendencia lineal en la serie del PIB.

La gráfica 3 muestra tanto la estimación "final" como la "cuasi real" de la brecha del PIB con la utilización del filtro HP estándar, lo cual permite evaluar gráficamente el problema al final de la muestra de dicho filtro. Se puede observar que dichas estimaciones pueden llegar a diferir entre sí notablemente. Por ejemplo, en el primer trimestre de 1997 la estimación "cuasi real" sugiere una brecha del PIB de 3 por ciento. Sin embargo, al contar con información adicional proveniente de los trimestres posteriores a 1997:Q1, la estimación "final" presumiblemente constituye una medida más adecuada de la brecha del PIB. En tal caso, dicha estimación señala una brecha de –0.8 por ciento.

En ausencia de revisiones posteriores a los datos, este ejercicio sugiere que el investigador y el tomador de decisiones (que sólo observan la serie del PIB hasta el primer trimestre de 1997) podrían haber llegado a la conclusión de que la economía se encontraba por encima de su nivel potencial al momento de observar el último dato disponible. Sin embargo, con el paso del tiempo el investigador y el tomador de decisiones contarían con información adicional que los llevaría a una evaluación más apropiada de la brecha del producto durante el primer trimestre de 1997, en el sentido de que dicha estimación estaría menos contaminada por el problema al final de la muestra. Esto es, con información disponible al primer trimestre de 2007, la brecha correspondiente sería de –0.8 por ciento. En este caso particular, el problema al final de la muestra inherente al filtro HP puede ser severo en el sentido de que existe una sobrestimación de la brecha de 3.8 puntos porcentuales, y de que las estimaciones "final" y "cuasi real" de la brecha difieren en signo. En contraparte, existen otros periodos (por ejemplo, alrededor del primer trimestre del año 2000) en donde el problema al final de la muestra es mucho menor.

La gráfica 4 muestra las estimaciones "cuasi reales" de la brecha provenientes del filtro SAVN bajo los métodos univariados y multivariados. Para efectos de comparación, se presenta también la estimación "final" de la brecha de acuerdo con el filtro HP estándar, la estimación "cuasi real" correspondiente al filtro CF y la brecha estimada bajo el supuesto de tendencia lineal. Al igual que en el caso anterior, se pueden observar diferencias notables entre la estimación "final" y las estimaciones "cuasi reales" de la brecha, sobre todo en el periodo 1998–2001.

La evaluación estadística de la severidad del problema al final de la muestra bajo los métodos expuestos anteriormente se presenta en el cuadro 1 para el periodo 1989:Q1–2005:Q1. La segunda columna presenta la correlación entre la estimación "final" y la brecha estimada conforme a distintos métodos. La correlación entre la estimación "final" y la "cuasi–real" utilizando un filtro HP estándar es relativamente alta (0.75). Sin embargo, si se utiliza el filtro SAVN, dicha correlación aumenta a poco más de0.90, dependiendo del método. Esto es, la correlación entre la estimación "final" y la "cuasi real" aumenta en poco más de 21 por ciento.

La siguiente columna muestra la raíz del error cuadrático medio entre la estimación "final" y la brecha estimada bajo distintos métodos. En este caso, la estimación "cuasi real" proveniente del filtro HP estándar arroja el mayor error cuadrático medio, seguida de la estimación "cuasi real" del método de función de producción. Lo notable de esta columna es que el filtro SAVN univariado permite disminuir la raíz del error cuadrático medio en 28 por ciento.

La cuarta columna (denominada "signo contrario") indica el porcentaje en el cual los signos de la estimación "final" de la brecha y aquélla estimada con métodos alternativos difieren entre sí. Nuevamente, la estimación "cuasi real" bajo el filtro HP estándar es el método peor evaluado de entre los tres primeros (22%), mientras que la estimación "cuasi real" univariada del filtro SAVN es la mejor (8%). Al comparar ambos métodos, dicho porcentaje se reduce en 64 por ciento.

Finalmente, las dos últimas columnas muestran la diferencia máxima y mínima entre la estimación "final" y la brecha estimada con métodos alternativos. Si bien las diferencias mínimas son relativamente similares en cada caso, la diferencia máxima en brechas es sustancial. La mayor diferencia máxima (3.79 puntos porcentuales) se obtiene con la estimación "cuasi real" del filtro HP estándar. Por su parte, el filtro SAVN univariado reduce la diferencia máxima a 2.47 puntos porcentuales, esto es, una caída de 35 por ciento.

Con objeto de comparar los resultados reportados hasta ahora, los dos últimos renglones del cuadro 1 contienen los estadísticos correspondientes al uso del filtro CF y al método de tendencia lineal. Se puede observar que el filtro CF es superior al filtro HP estándar en varias dimensiones: exhibe una mayor correlación, un menor error cuadrático medio y un menor valor para la diferencia máxima entre brechas. Este resultado es cualitativamente consistente con lo reportado por Christiano y Fitzgerald (2003) en el sentido de que el filtro CF tiene un mejor desempeño que el filtro HP hacia el final de la muestra. Sin embargo, cuando se compara el filtro CF con el filtro SAVN univariado, este último resulta superior en términos de la mayoría de los estadísticos reportados. Quizá de manera sorpresiva, el método de tendencia lineal es el mejor de todos en varias dimensiones: exhibe la mayor correlación, el menor error cuadrático medio y la menor diferencia máxima. Sin embargo, con excepción del estadístico de la diferencia máxima, los resultados no son muy distintos de aquéllos provenientes del filtro SAVN univariado.

En principio, el resultado de que el método SAVN univariado en promedio es mejor que el método multivariado podría parecer sorpresivo, dado que el método multivariado contiene mayor información. En este sentido, una manera alternativa de evaluar qué método es superior consiste en comparar las brechas "finales" y "cuasi reales" correspondientes a cada método. En cada caso, se aplica el filtro SAVN con λ = 1096. La gráfica 5 muestra los resultados correspondientes al método univariado, mientras que la gráfica 6 presenta la estimación bajo el método multivariado. En general, ambas gráficas ilustran que pueden existir diferencias notables entre la estimación "final" y "cuasi real" de la brecha, en algunos periodos de la muestra.

La evaluación estadística de ambos ejercicios se presenta en el cuadro 2. Como se puede apreciar, ambos métodos arrojan estadísticos bastante similares entre sí, con excepción del error cuadrático medio y la diferencia máxima. En particular, el método univariado permite reducir el error cuadrático medio en 19 por ciento y la diferencia máxima en 25 por ciento, respecto al método multivariado.

III.3. Un ejemplo: la conducción de la política monetaria en 2001–2002

Los hallazgos de la sección anterior sugieren que el problema de estimación de la brecha del PIB hacia el final de la muestra puede ser relativamente grande cuando se utiliza el filtro HP estándar. Este resultado es de gran relevancia para la conducción de la política monetaria. En particular, las implicaciones de política relacionadas con una inferencia errónea sobre el tamaño de la brecha del PIB en un momento determinado son inmediatas. Por ejemplo, en términos de una regla monetaria tipo Taylor (1993), la postura de política monetaria podría ser más restrictiva de lo necesario si resulta que la brecha del PIB está sobrestimada como consecuencia de un problema de estimación al final de la muestra.13

Un ejemplo de este problema de extracción de señal podría haber ocurrido en México durante el periodo 2001–2002. Después de una serie de incrementos por parte del Banco de México en el objetivo sobre los saldos en la cuenta corriente de la banca (el "corto") y de su correspondiente efecto sobre la tasa de fondeo interbancario durante el año 2000, dicha tasa de interés comenzó a disminuir de manera notable en el siguiente año. Así, la tasa de fondeo pasó de 17.7 por ciento en diciembre de 2000 a 6.7 por ciento en diciembre de 2001 (véase la gráfica 7). Es decir, en tan sólo 12 meses la tasa de fondeo interbancario disminuyó en 11 puntos porcentuales. Durante ese mismo periodo, la inflación general anual disminuyó de 8.96 a 4.4 por ciento, esto es, 2.1 puntos porcentuales por debajo de la meta de inflación de 6.5 por ciento para el cierre de 2001. A lo largo del año, el Banco de México decidió disminuir el "corto" en dos ocasiones, y pasó de un nivel de 400 millones de pesos en enero de 2001 a 300 millones de pesos en julio del mismo año. En palabras del Banco de México, "la caída de las tasas de interés... ha sido validada por la posición del propio Instituto Central"

(Boletín de Prensa 81, julio de 2001). En dicho comunicado, el Banco Central subrayó que la actividad económica en México se había reducido "considerablemente".

Durante el año 2002, la conducción de la política monetaria tuvo un comportamiento poco usual. En febrero de ese año, el "corto" aumentó de 300 a 360 millones de pesos como respuesta a la eliminación parcial del subsidio del gobierno federal a las tarifas eléctricas (Boletín de Prensa 12, febrero de 2002). Sin embargo, dos meses después el "corto" se redujo a su nivel previo de 300 millones de pesos. El Banco de México hizo referencia a la debilidad de la actividad económica en México como uno de los factores en su decisión (Boletín de Prensa 31, abril de 2002). El Banco Central volvió a revertir su decisión en septiembre de 2002, al aumentar el "corto" a 400 millones de pesos. Para entonces, las expectativas de inflación estaban muy por encima de la meta de inflación anual de 4.5 por ciento para diciembre de 2002. De hecho, la inflación general anual terminó incrementándose de 4.4 por ciento en diciembre de 2001 a 5.7 por ciento en diciembre de 2002. Es decir, la inflación general en dicho año terminó 1.2 puntos porcentuales por encima de la meta fijada por el Banco Central.

La gráfica 7 ofrece información que podría ayudar a interpretar las decisiones de política monetaria durante el periodo 2001–2002 y, en particular, el comportamiento inusual del "corto" en 2002. Considere primero la estimación "cuasi real" de la brecha del producto proveniente del filtro HP estándar, la cual ofrece una aproximación de la brecha que habría estimado el Banco Central con base en la información disponible al momento. Esta estimación sugiere que la brecha del producto fue negativa durante todo el año 2001, hasta alcanzar un mínimo de –3.5 por ciento en el cuarto trimestre. Este valor de la brecha es consistente con la interpretación del Banco de México, de que la actividad económica se había reducido "considerablemente". Esto a su vez podría explicar por qué el Banco Central validó la caída en la tasa de fondeo interbancario a través de dos disminuciones consecutivas en el "corto" durante el año 2001.

Dado el rezago natural con el que se publica la información, el dato del PIB al cuarto trimestre de 2001 sólo estuvo disponible con fecha posterior a la decisión de política de febrero de 2002, pero antes de la decisión de abril de 2002. Es decir, la decisión de disminuir el corto de 360 a 300 millones en abril de 2002 pudo haber estado influenciada (entre otras cosas) por la percepción de que el PIB se encontraba muy por debajo de su nivel potencial en el cuarto trimestre de 2001. Esta decisión, junto con el relajamiento monetario del año previo, podría haber contribuido a que la inflación al cierre de 2002 haya terminado por encima de la meta inflacionaria.

Por el contrario, y gracias al hecho de contar con mayor información sobre el PIB durante los trimestres posteriores, la estimación "final" de la brecha sugiere un escenario completamente distinto durante el año 2001. Ésta pasó de un nivel positivo de 2.1 por ciento en el primer trimestre de 2001 a un nivel de –1 por ciento en el cuarto trimestre del mismo año. Esto implica una diferencia de –2.5 puntos porcentuales entre la estimación "final" y la "cuasi real" de la brecha proveniente del filtro HP estándar en el cuarto trimestre de 2001. Es decir, si bien hubo una reducción notable en el componente cíclico del PIB durante 2001, como lo sugiere la estimación "final", éste no se encontraba muy alejado de su nivel potencial al cuarto trimestre del mismo año.

Al mismo tiempo, la gráfica 7 muestra que la estimación "cuasi real" de la brecha mediante el método SAVN sugiere un nivel de la brecha mucho más favorable que el de la estimación "cuasi real" del filtro HP durante todo el año 2001. En particular, el método SAVN estima un nivel de brecha del PIB de –2.1 por ciento en el cuarto trimestre de 2001, el cual se compara favorablemente respecto a la estimación "cuasi real" de –3.5 por ciento del filtro HP. Es decir, durante este periodo el método SAVN habría ofrecido una mejor aproximación a la estimación "final" de la brecha.14 Presumiblemente, las decisiones de relajamiento en las condiciones monetarias a lo largo de 2001 y en abril de 2002, y el consecuente efecto desfavorable sobre la inflación durante el año 2002, pudieron haber sido distintas desde esta perspectiva.

Cabe notar que esta interpretación de la conducción de la política monetaria en este periodo particular debe llevarse a cabo con cautela. En primer lugar, si bien existe cierta evidencia de que el Banco de México en la práctica conduce su objetivo de inflación de manera flexible en el sentido de Svensson (1999) (véase, por ejemplo, Roldán, 2005), sería inapropiado afirmar que el Banco Central implementa su política monetaria exclusivamente en términos de una regla tipo Taylor (1993). En segundo lugar, en la práctica pueden existir periodos donde la estimación "cuasi real" del filtro HP estándar ofrece una aproximación razonable de la estimación "final" (véase la gráfica 3). Al tomar en cuenta estas observaciones, este ejemplo resalta los problemas de estimación de la brecha del producto al final de la muestra en la práctica, y sus posibles consecuencias sobre la inflación. Al mismo tiempo, deja entrever lo complejo de las decisiones de política monetaria en tiempo real.

 

IV. Conclusiones

Este trabajo ha presentado una serie de ejercicios relacionados con la estimación de la brecha del PIB para México, con especial énfasis en el problema de estimación al final de la muestra. Para tal efecto, se han llevado a cabo ejercicios de estimación "cuasi real" de la brecha del producto (en el espíritu de Orphanides y van Norden, 2002) bajo distintos métodos. De manera particular, se ha puesto énfasis en el método de St–Amant y van Norden (1997), el cual está diseñado para corregir parcialmente este problema. Adicionalmente, se ha propuesto la estimación de la brecha con la suposición de que el PIB sigue una tendencia lineal determinística. Estas estimaciones se han comparado con una estimación "final", la cual constituye un mejor referente para el valor de la brecha en el sentido de que utiliza mayor información que la estimación "cuasi real".

Con base en una serie de estadísticos relevantes, los ejercicios sugieren que, en promedio, los métodos SAVN univariado y de tendencia lineal son los que mejor se aproximan a la estimación "final" de la brecha. En particular, estos métodos permiten aumentar la correlación entre la estimación "final" y "cuasi real" entre 23 y 28 por ciento, reducir el error cuadrático medio entre 28 y 31 por ciento, y disminuir la frecuencia con la cual ambas estimaciones difieren en el signo de la brecha entre 45 y 64 por ciento.

Cabe destacar que la modificación propuesta por St–Amant y van Norden (1997) se lleva a cabo tomando como referencia el filtro HP, el cual es un método univariado muy popular para extraer el componente de tendencia de una serie. En trabajo futuro, sería interesante explorar si el término de corrección de St–Amant y van Norden también podría aminorar sustancialmente el problema de estimación al final de la muestra bajo métodos alternativos de filtrado univariado.

 

Referencias bibliográficas

Antón, Arturo (2008), El problema al final de la muestra en la estimación del PIB potencial. Documento de Trabajo 442, División de Economía, CIDE.         [ Links ]

Banco de México (2001–2002), Boletines de Prensa, varios meses.         [ Links ]

Baxter, Marianne y Robert G. King (1999), "Measuring Business Cycles: Approximate Band–Pass Filters for Economic Time Series", Review of Economics and Statistics, 81(4), 575–593.         [ Links ]

Bergoieng, Raphael, Patrick J. Kehoe, Timothy J. Kehoe y Raimundo Soto (2002), "A Decade Lost and Found: Mexico and Chile in the 1980s", Review of Economic Dynamics, 5(1), 166–205.         [ Links ]

Butler, Leo (1996), "A SemiStructural Method to Estimate Potential Output: Combining Economic Theory with a Time–Series Filter", Reporte Técnico, 77, Banco de Canadá         [ Links ].

Canova, Fabio (1998), "Detrending and Business Cycle Facts", Journal of Monetary Economics, 41, pp. 475–512.         [ Links ]

Cayen, Jean–Philippe y Simon van Norden (2005), "The Reliability of Canadian Output–Gap Estimates", North American Journal of Economics and Finance, 16, pp. 373–393.         [ Links ]

Christiano, Lawrence y Terry J. Fitzgerald (2003), "The Band Pass Filter", International Economic Review, 44(2), pp. 435–465.         [ Links ]

Congressional Budget Office (2001), "CBO's Method for Estimating Potential Output: An Update", manuscrito.         [ Links ]

De Masi, Paula (1997), "IMF Estimates of Potential Output: Theory and Practice", IMF Working Paper, 97/177.         [ Links ]

Denis, Cécile, Daniel Grenouilleau, Kieran Mc Morrow y Werner Röger (2006), "Calculating Potential Growth Rates and Output Gaps – A Revised Production Function Approach", European Commission Economic Papers , 247.         [ Links ]

Denis, Cécile, Kiera Mc Morrow y Werner Röger (2002), "Production Function Approach to Calculating Potential Growth and Output Gaps – Estimates for the EU Member States and the US", European Commission Economic Papers, 176.         [ Links ]

Dupasquier, Chantal, Alain Guay y Pierre St–Amant (1997), "A Comparison of Alternative Methodologies for Estimating Potential Output and the Output Gap", Documento de Trabajo 97–5, Banco de Canadá         [ Links ].

Fuentes, Rodrigo, Fabián Gredig y Mauricio Larraín (2007), "Estimating the Output Gap for Chile", Documento de Trabajo, 455, Banco Central de Chile.         [ Links ]

Galí, Jordi (2003), "New Perspectives on Monetary Policy, Inflation and the Business Cycle", en Mathias Dewatripont, Lars Hansen y Stephen Turnovsky, editores, Advances in Economic Theory, vol. 3, Cambridge University Press, Cambridge, pp. 151–197.         [ Links ]

García–Verdú, Rodrigo (2005), "Factor Shares from Household Survey Data", Documento de Trabajo, 2005–5, Banco de México.         [ Links ]

Giorno, Claude, Pete Richardson, Deborah Roseveare y Paul van den Noord (1995), "Estimating Potential Output, Output Gaps and Structural Budget Balances", OECD Economics Department Working Papers, 152.         [ Links ]

Gollin, Douglas (2002), "Getting Income Shares Right", Journal of Political Economy, 110(2), pp. 458–474.         [ Links ]

Hodrick, Robert J. y Edward C. Prescott (1997), "Post–War U. S. Business Cycles: An Empirical Investigation", Journal of Money, Credit and Banking, 29(1), pp. 1–16.         [ Links ]

Kehoe, Timothy J. y Edward C. Prescott (2002), "Great Depressions of the 20th Century", Review of Economic Dynamics, 5(1), pp. 1–18.         [ Links ]

Laxton, Douglas y Robert Tetlow (1992), "A Simple Multivariate Filter for the Measurement of Potential Output", Reporte Técnico, 59, Banco de Canadá         [ Links ].

Loría, Eduardo, Manuel G. Ramos y Leobardo de Jesús (2008), "Producto potencial y ciclos económicos en México, 1980.1–2006.4", Estudios Económicos, 23(1), pp. 25–47.         [ Links ]

Marcet, Albert y Morten O. Ravn (2004), "The H–P Filter in Cross Country Comparisons", CEPR Discussion Paper, 4244.         [ Links ]

Nelson, Charles R. y Charles I. Plosser (1982), "Trends and Random Walks in Macroeconomic Time Series: Some Evidence and Implications", Journal of Monetary Economics, 10, pp. 139–162.         [ Links ]

Orphanides, Athanasios (2003), "The Quest for Prosperity without Inflation", Journal of Monetary Economics, 50(3), pp. 633–663.         [ Links ]

Orphanides, Athanasios y Simon van Norden (2002), "The Unreliability of Output–Gap Estimates in Real Time", Review of Economics and Statistics, 84(4), pp. 569–583.         [ Links ]

Proietti, Tommaso, Alberto Musso y Thomas Westermann (2007), "Estimating Potential Output and the Output Gap for the Euro Area: A Model–Based Production Function Approach", Empirical Economics, 33(1), pp. 85–113.         [ Links ]

Roldán, Jessica (2005), "Un análisis de la política monetaria en México bajo el esquema de objetivos de inflación", tesis de licenciatura, ITAM.         [ Links ]

St. Amant, Pierre y Simon van Norden (1997), "Measurement of the Output Gap: A Discussion of Recent Research at the Bank of Canada", Reporte Técnico, 79, Banco de Canadá         [ Links ].

Staiger, Douglas, James H. Stock y Mark W. Watson (1997), "How Precise are Estimates of the Natural Rate of Unemployment?", en Christina Romer y David Romer (editores), Reducing Inflation: Motivation and Strategy, University of Chicago Press, Chicago.         [ Links ]

Svensson, Lars (1999), "Inflation Targeting: Some Extensions", Scandinavian Journal of Economics, 101(3), pp. 337–361.         [ Links ]

Taylor, John (1993), "Discretion versus Policy Rules in Practice", Carnegie–Rochester Conference Series on Public Policy, 39, pp. 195–214.         [ Links ]

Torres, Alberto (2002), "Un análisis de las tasas de interés en México a través de la metodología de reglas monetarias", Documento de Investigación 2002–11, Banco de México.         [ Links ]

 

Notas

* Parte de este trabajo fue elaborado mientras el autor estaba adscrito al Banco de México como investigador económico. Agradezco la eficiente ayuda de Oscar Contreras para la elaboración de este documento, a Alejandro Gaytán por sus conversaciones sobre el tema y por facilitarme el programa para filtrar las series, así como los valiosos comentarios de los participantes en la Reunión de Coordinación para la Investigación Conjunta sobre Variables No Observables, organizado conjuntamente por el CEMLA y el Banco Central de la República Argentina.

1 Es bien sabido que la estimación del nivel potencial del PIB no es sencilla, ya que enfrenta problemas tanto conceptuales como de medición (véase, por ejemplo, Orphanides y van Norden, 2002; Galí, 2003; Orphanides, 2003). A pesar de su relevancia, el presente artículo deja a un lado la discusión sobre los problemas conceptuales en la estimación del PIB potencial, para concentrarse en problemas relacionados con la medición de la brecha al final de la muestra.

2 Una alternativa para calcular la brecha del producto consiste en utilizar métodos que no estén sujetos al problema de estimación al final de la muestra (por ejemplo, métodos de filtrado multivariado basados en VAR o VECM estructurales). Sin embargo, estos métodos tampoco están exentos de problemas para inferir el nivel de la brecha del producto más reciente. En primer lugar, el hecho de contar con nuevos datos conforme el tiempo pasa puede llevar a una reestimación considerable del modelo, lo cual provoca a su vez una revisión en la brecha del producto originalmente estimada (Orphanides y van Norden, 2002). En segundo lugar, y de manera más importante, existe evidencia de que esta clase de métodos estiman la brecha del producto con un alto grado de incertidumbre (véase, por ejemplo, Dupasquier, Guay y St–Amant, 1997; St–Amant y van Norden, 1997). Esta evidencia es consistente con los resultados de Staiger, Stock y Watson (1997) en el sentido de que la tasa natural de desempleo (NAIRU) se estima en forma impre2cisa si se utiliza esta clase de métodos. A pesar de su importancia, estos problemas de estimación están fuera del alcance de este artículo.

3 Este problema no es exclusivo del filtro HP. Como se discute en St–Amant y van Norden (1997), existe una amplia familia de filtros univariados que adolecen de este tipo de problema.

4 Otra forma relativamente popular de extraer el componente de tendencia de una serie es el filtro de bandas propuesto por Baxter y King (1999). Sin embargo, este filtro requiere truncar la serie original tanto al inicio como al final de la muestra en un número determinado de periodos. La idea es que mientras más datos sean truncados, se obtiene una mejor aproximación al filtro de bandas ideal. Debido a este problema de truncamiento, el filtro de Baxter y King (1999) no resulta útil para los propósitos de este artículo.

5 El método de tendencia lineal y determinística es de hecho el más simple, y presumiblemente uno de los más antiguos de todos los métodos que tratan de extraer el componente de tendencia de una serie. Esta especificación contrasta fuertemente con una larga tradición en macroeconomía de series de tiempo, iniciada con el trabajo seminal de Nelson y Plosser (1982), en el cual se reporta evidencia de que la tendencia del PIB es estocástica. Al mismo tiempo, la especificación de tendencia lineal se abstrae de relaciones potencialmente más complejas entre los componentes cíclicos y de tendencia de una serie (para una discusión al respecto, véase Canova, 1998). Problemas de este tipo están fuera del alcance del presente artículo. Dadas estas observaciones, los resultados reportados más adelante de ninguna manera pretenden evaluar ni arrojar implicaciones sobre si el componente de tendencia del PIB en los datos de México es determinístico.

6 Para mayores detalles sobre el método, véase Giorno et al. (1995), De Masi (1997), Congressional Budget Office (2001), Denis, Mc Morrow y Röger (2002), Denis et al. (2006), Proietti, Musso y Westermann (2007) y las referencias allí incluidas.

7 En particular, para el término BJ, j = 0, 1.,., T–4. Por su parte, T t y t–1 son funciones lineales de las BJ's. Véase Christiano y Fitzgerald, 2003.

8 Por ejemplo, si se aplica el filtro HP con λ = 1600 a la serie del PIB de España durante el periodo 1970Q1–1998Q4, los autores encuentran que la brecha del PIB resultante es inconsistente con el consenso de los estudiosos del ciclo económico español.

9 La estimación de la brecha que se presenta en la gráfica 1 es similar en términos cualitativos a aquella estimada por Loría, Ramos y De Jesús (2008), la cual utiliza modelos estructurales de series de tiempo. Sin embargo, las estimaciones no son directamente comparables ya que, a diferencia de esos autores, en este artículo se elimina el componente estacional de las series.

10 Esta diferencia se explica por los supuestos de largo plazo utilizados en el método de función de producción. En dicho caso, la tendencia de las horas trabajadas totales se obtiene a partir de la estimación de la tendencia de las horas trabajadas promedio por trabajador, la tasa de desempleo y la tasa de participación. En el caso de cada una de estas series, la teoría sugiere que su tasa de crecimiento de largo plazo es cero y, por tanto, se fija uss = 0 en (1). Al imponerse esta restricción, el método multivariado de función de producción estima una brecha del PIB mucho mayor al final de la muestra.

11 Un método similar al presentado en este artículo es utilizado, entre otros, por Fuentes, Gredig y Larraín (2007). Por supuesto, la estimación "final" de la brecha del producto es un concepto efímero, y sólo se emplea en el espíritu de Orphanides y van Norden (2002).

12 Una alternativa consiste en estimar la brecha del producto con la utilización de datos "en tiempo real". En dicho caso, la diferencia entre la estimación "final" y la estimación "en tiempo real" captura la revisión total en la brecha del producto, debido, entre otras cosas, a los efectos de revisión en los datos. Como se mencionó en la introducción, Orphanides y van Norden (2002), y Cayen y van Norden (2005), encuentran que la revisión de la brecha del producto se explica, en su mayoría, por el problema de estimación al final de la muestra. Este es el objetivo del presente artículo, para lo cual no es necesario recolectar datos en tiempo real.

13 Como es bien sabido, la regla monetaria tipo Taylor (1993) generalmente se utiliza para ofrecer una interpretación sobre la forma en que la autoridad monetaria determina su instrumento de política (i. e., la tasa de interés nominal). En su versión más sencilla, la regla de Taylor especifica la tasa de interés nominal en términos de desviaciones de la inflación respecto a su meta, y de la producción respecto a su nivel potencial. Por supuesto, la regla monetaria no significa que el Banco Central siga invariablemente dicha regla de política en todo momento, puesto que siempre existe un elemento de "juicio" en el momento de su toma de decisiones. Para evidencia de que la conducción de la política monetaria en México se puede aproximar razonablemente bien en términos de una regla monetaria tipo Taylor, véase Torres (2002).

14 Un resultado cualitativamente similar se obtiene si se utiliza el método de tendencia lineal. En particular, este método sugiere que la brecha del PIB habría sido sólo de 0.1 por ciento al cuarto trimestre de 2001.