SciELO - Scientific Electronic Library Online

 
vol.73 número290En busca del oro ¿Qué determina el éxito en competencias deportivas internacionales?Ciclos políticos de la política fiscal con votantes opuestos al déficit. El caso colombiano índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


El trimestre económico

versión On-line ISSN 2448-718Xversión impresa ISSN 0041-3011

El trimestre econ vol.73 no.290 Ciudad de México abr./jun. 2006  Epub 02-Dic-2022

https://doi.org/10.20430/ete.v73i290.545 

Artículos

Modelos predictivos de lógica y lógica borrosa en índices bursátiles de América del Norte

Antonino Parisi F.a 

Franco Parisi Fb 

a A. Parisi F., profesor asistente, Departamento de Administración, Universidad de Chile. EuroAmerica Chair in Finance.

b F. Parisi F., profesor asociado, Departamento de Administración, Universidad de Chile. EuroAmerica Chair in Finance [correo electrónico: fparisi@negocios.uchile.cl].


RESUMEN:

Este artículo continúa con la línea de investigación relativa a modelos predictivos de índices bursátiles: algoritmos genéticos y redes neuronales. Los modelos anteriores, paramétricos o no paramétricos, lineales y no lineales, buscan reconocer pautas de comportamiento y relaciones que se expresan en un lenguaje matemático, por medio de la estimación de coeficientes y su significación estadística. Sin embargo, la mayoría de los agentes que participan en el mercado bursátil utiliza un lenguaje que incorpora aspectos cualitativos para referirse, por ejemplo, al precio de un activo, a la rentabilidad de la inversión, etc. En este contexto, los modelos cuantitativos tienen dificultades para absorber esta información, lo que plantea la necesidad de desarrollar y analizar el uso de nuevas técnicas que permitan incorporar este tipo de referencias. La metodología de lógica borrosa, basada en la idea de que las variables deben ser manejadas no como un número sino más bien por las características que ellas presentan, responde a esta inquietud. Se utilizaron series históricas de cotizaciones diarias de los índices bursátiles norteamericanos DJI y Nasdaq (Estados Unidos), IPC (México) y TSE (Canadá), correspondientes al periodo comprendido entre el 8 de octubre de 1996 y el 7 de enero de 2005. Se construyó un modelo de lógica y otro de lógica difusa, para efectos de proyectar el signo de las variaciones de los índices bursátiles ya señalados. Los modelos de lógica y de lógica borrosa tuvieron una capacidad predictiva estadísticamente significativa. Además, ambos modelos lograron un rendimiento extranormal significativo y positivo al ser utilizados en una estrategia de comercio (trading), aun después de considerar los costos de transacción.

Palabras clave: lógica borrosa; funciones de pertenencia; conjuntos de pertenencia; reglas de comercio (trading); desfuzificación; porcentaje de predicción de signo; prueba de acierto direccional

ABSTRACT:

This article continues with the research related to predict stock index, such as, genetic algorithms and neuronal networks. Parametrics or non parametrics, lineals and non lineals models, try to re cognize patterns and relations that express themselves in a mathematical language, through the estimation of coefficients and their statistical significance. However, most of the agents in the stock market use a language that incorporates qualitative aspects to refer to, for example, the price of an asset, the yield of the investment, etc. In this con text, the quantitative models have problems to absorb this in formation, which suggests the need to develop and analyze new techniques, incorporating this type of references. The methodology of fuzzy logic gives answer to this question because it’s based on the idea that the variables should be handled not as a number but as characteristics that they represent. We used historic series of daily prices of the North American stock index DJI and Nasdaq (USA), IPC (México) y TSE (Canada), corresponding to the period October 8, 1996 and January 7, 2005. We designed a model of logic and fuzzy logic, to forecast the stock indexes sign variations. The logic models and the fuzzy logic models reached a forecast capability statistically significant. In addition, both models achieved a significant and positive abnormal return when they were used as a trading strategy, even after transaction costs.

Clasificación JEL: G10, G14, G15

INTRODUCCIÓN

La predicción de los movimientos de los precios accionarios y de los índices bursátiles ha sido un tema de gran interés en el ámbito financiero. Diversos estudios muestran que los rendimientos accionarios son predecibles en algún grado. Por ejemplo, Lo y MacKinley (1988), utilizando datos de mercados bursátiles desarrollados, encontraron una correlación serial positiva entre los rendimientos semanales; DeBondt y Thaler (1985), Fama y French (1988), Poterba y Summers (1988) y Chopra, Lakonishok y Ritter (1992) obtuvieron una correlación serial negativa en los rendimientos de los activos individuales y varias carteras en intervalos de tres a diez años.

Predecir los movimientos de los precios accionarios futuros a partir del análisis de series históricas de cotizaciones bursátiles ha llevado a que los analistas se centren en la psicología del inversionista y en la res puesta de éste a los movimientos de los precios accionarios. La idea detrás de esto es que el precio al cual un inversionista está dispuesto a comprar o vender depende de sus expectativas: si espera un alza futura en el precio del activo, entonces comprará; por lo contrario, si espera una caída en la cotización bursátil, entonces venderá. Esta conducta que pareciera ser trivial resulta de gran complejidad ya que responde a las expectativas y actitudes del ser humano. Este estudio busca predecir el comportamiento del mercado bursátil representado por un índice accionario, trazando sus variaciones históricas por medio de un sistema lógico de procesamiento de datos.

En los decenios recientes se han incorporado en los procesos de predicción nuevas técnicas con base en modelos no paramétricos y no lineales, como las redes neuronales. A modo de ejemplo, Parisi, Parisi y Guerrero (2003) utilizaron redes neuronales en el proceso de construcción de modelos predictivos de las variaciones semanales de diferentes índices bursátiles internacionales. Lo anterior se suma a los resultados de Tsibouris y Zeidenberg (1995) y White (1993), quienes trabajaron en la predicción de índices bursátiles y de activos individuales, y confirmaron un mejor rendimiento de la redes neuronales. También Parisi, Parisi y Cornejo (2004) utilizaron algoritmos genéticos para encontrar el proceso de búsqueda del mejor modelo lineal multivariado dinámico y recursivo, en términos de su capacidad para predecir el signo de la variación experimentada por los índices DJI, Nasdaq, IPC y TSE,1 mismos que se abordan en esta investigación.

Los modelos anteriores, paramétricos o no paramétricos, lineales y no lineales, buscan reconocer pautas de comportamiento y establecer relaciones entre la variable que se desea proyectar y la(s) variable(s) explicativa(s). Estas relaciones se expresan en un lenguaje matemático, por medio de la estimación de coeficientes y del análisis de su significación estadística. Sin embargo, la mayoría de los agentes que participan en el mercado bursátil utiliza un lenguaje que incorpora aspectos de carácter cualitativo para referirse, por ejemplo, al precio de un activo, a la rentabilidad de la inversión, a la volatilidad del mercado, etc. Así, es común encontrar expresiones como que el precio está “relativamente alto” o “relativamente bajo”, que la rentabilidad de tal o cual instrumento de inversión es “atractiva”, que la volatilidad del mercado bursátil es “relativamente alta” o que éste se encuentra más bien “estable”, etc. En este contexto, los modelos cuantitativos tienen dificultades para absorber esta información de carácter cualitativo, lo que plantea la necesidad de desarrollar y analizar el uso de nuevas técnicas que permitan incorporar este tipo de referencias. La metodología de lógica borrosa (también conocida como lógica difusa o fuzzy logic), basada en la idea de que las variables son de carácter lingüístico y que, por tanto, deben ser manejadas no como un número sino más bien por las características que ellas presentan, responde a esta inquietud.

La importancia de lo anterior radica en que el uso de técnicas avanzadas, como lógica borrosa, algoritmos genéticos y redes neuronales, ayuda a mejorar el proceso de proyección de precios, lo que es vital en la gestión de carteras de inversión de renta variable. En el caso específico de la lógica difusa, es posible construir un modelo de óptimos computarizados para proyectar el signo de la variación de un determinado índice bursátil, es decir, para realizar un pronóstico respecto a si éste se moverá al alza o a la baja en el futuro in mediato.

Existe un gran número de trabajos y aplicaciones de lógica difusa en múltiples ámbitos principalmente relacionados con controladores automáticos, pero ésta ha sido escasamente usada en el campo económico. Dourra y Siy (2001) evaluaron los movimientos de los precios de un conjunto de acciones, aplicando un proceso de lógica borrosa en los resultados del análisis técnico, y obtuvieron una ventaja comparativa en términos de rentabilidad respecto al mercado.

El documento se divide en tres secciones: la sección I presenta un resumen de los conceptos básicos de lógica borrosa; en la sección II se explica la metodología utilizada, la sección III aborda el análisis de los resultados y al final se presenta las conclusiones del estudio.

I. LÓGICA DIFUSA: CONCEPTOS BÁSICOS

La teoría de lógica borrosa (fuzzy sets) fue introducida por Loffi A. Zadeh a mediados de los años sesenta, y desde esa fecha se ha desarrollado como un instrumento elemental para el control de subsistemas y procesos industriales complejos, ya que los sistemas borrosos permiten modelar sistemas no lineales, y aprender de los datos haciendo uso de determinados algoritmos de aprendizaje. La lógica borrosa surge como un perfeccionamiento de la lógica booleana tradicional, en la cual los conjuntos son considerados como sistemas bivalentes, con sus estados alternados entre “pertenencia” o “no pertenencia” (inclusión o exclusión), en los que tradicionalmente se define la función característica, f A , que describe la pertenencia de un elemento x al con junto A, como:

(1)

De esta manera, la pertenencia de un elemento al conjunto A queda fraccionada y las relaciones entre conjuntos quedan categorizadas, siendo la transición entre dos con juntos (o estados) A y B radical e inmediata.

La lógica borrosa, por su parte, considera la idea de variable lingüística, que capta las propiedades de aproximación o los conceptos de imprecisión en un sistema, lo que permite que un elemento tenga valores intermedios en el grado de pertenencia a un conjunto determinado. Cada elemento del universo tiene asociada una función de pertenencia continua f A -que toma valores entre 0 y 1- que indica el “grado de pertenencia” del elemento x al con junto A. Así, un conjunto en el universo de discurso U es definido por una función de pertenencia f A :U → [0,1], en la que f A (x)ϵ[0,1] indica el grado de pertenencia de x al conjunto A.

En este concepto de lógica borrosa reside la idea de que los elementos clave del pensamiento no son numéricos, sino que son ideas con cierto grado de vaguedad, en las que los elementos pasan de un conjunto a otro de manera suave y flexible, convirtiéndose de esta manera en un instrumento atractivo para manejar la incertidumbre. La lógica borrosa incorpora tres pasos fundamentales: i) la elección de los insumos (inputs) del proceso fuzzy, ii) la designación de funciones y conjuntos de pertenencia y iii) la determinación de las reglas difusas y de la variable de salida (desfuzificación).

Los insumos del proceso fuzzy se refieren a las variables que se presumen importantes de considerar, ya que el comportamiento de éstas y sus combinaciones influyen en la variable que se desea proyectar. Estas variables son agrupadas en los conjuntos de pertenencia (también llamados conjuntos difusos) a los cuales pertenecerán en algún grado. Los conjuntos de pertenencia son determinados por sus funciones de pertenencia. Comúnmente, el número de conjuntos difusos es definido de manera que contenga todo el rango de posibles valores que podría adoptar la variable. Este rango de variación es conocido como universo de discurso. Las funciones de pertenencia generalmente son funciones continuas cuyo dominio es el conjunto de discurso y su imagen un valor real entre 0 y 1, el cual re presentará el grado de pertenencia de la variable al conjunto de que se trate. Estos conjuntos de pertenencia, junto a las reglas difusas, determinarán el comportamiento que tendrá la variable de salida.

Se requiere el establecimiento de reglas para combinar los conjuntos de pertenencia mediante operaciones de unión, intersección y complemento. Las operaciones entre conjuntos se asociarán a las conexiones lingüísticas “o”/“y”. Así, la intersección se asocia a “y”, mientras que la unión a “o”. De esta manera se pueden conectar y manipular los conjuntos de pertenencia que contienen los insumos para, a su vez, obtener nuevos conjuntos difusos en los cuales se agrupen los productos (outputs). En principio, no existen reglas generales o un método de construcción de re glas fuzzy o de funciones de pertenencia, por lo que éstas son determinadas por cada diseñador. No obstante, éstas deben cumplir con las propiedades de t-normas para la intersección y t-conormas para la unión.2

El proceso de proyección es realizado por medio de la elaboración de reglas difusas, las cuales relacionan la correspondencia entre los insumos y el producto mediante las operaciones de conjuntos. La forma usual de las reglas difusas es del tipo: si i 1 es f 1 y/o i 2 es f 2 y/o…i n es f n , entonces o t es o k . Donde i 1, i 2i n son los insumos atribuibles a las funciones de pertenencias f 1 , f 2 …, f n , respectivamente; o t es el producto, y o k es la clasificación atribuible a o t . Finalmente, el producto fuzzy debe ser transformado en una variable posible de interpretar, proceso denominado “desfuzificación”.

II. DATOS Y METODOLOGÍAS

En este artículo se utilizaron series históricas de cotizaciones de cierre diarias de los principales índices bursátiles de América del Norte: DJI, Nasdaq (Estados Unidos), IPC (México) y TSE (Canadá). Los datos corresponden al periodo comprendido entre el 8 de octubre de 1996 y el 7 de enero de 2005.

Se construyó un modelo de lógica y otro de lógica difusa para efectos de proyectar -en el momento t- el signo de la variación que experimentarán en el momento t +1 los índices bursátiles señalados. De esta manera se busca pronosticar si los índices en análisis se moverán al alza -signo positivo- o a la baja -signo negativo-. Esto, entendiendo que la predicción de la dirección del movimiento del índice accionario es pertinente para desarrollar estrategias de transacción efectivas (Leung, Daouk y Chen, 2000). La principal diferencia entre el modelo de lógica y el de lógica difusa radica en que este último ha sido construido asignando a los insumos funciones de pertenencia, mientras que el primero carece de esta propiedad. En ambos casos se busca mostrar la eficiencia de la técnica en función de dos aspectos: por una parte, en la elaboración de un modelo que maximice el porcentaje de predicción de signo (PPS) y, por otra, en la capacidad para generar una rentabilidad extranormal, es decir, superior a la generada por un punto de referencia (benchmark).

1. Modelo de lógica

Con este modelo las asociaciones lógicas y la magnitud de los parámetros serán determinadas con un proceso heurístico, valiéndose para ello de un proceso de simulación. El objetivo es generar evidencia que permita analizar si el modelo lógico puede crear, por una parte, un modelo que maximice el PPS dentro de un subperiodo de estudio (intramuestral)3 -para luego evaluar los resultados en una serie extramuestral- y, por otra, una estrategia de comercio (trading) que genere rendimientos extranormales. Se consideró como producto del proceso fuzzy la variación que experimentará el índice bursátil en el periodo t+1. Por otro lado, se consideraron diez insumos: las variaciones del índice bursátil en cuestión correspondientes a los periodos t, t -1, t -2, t -3 y t - 4, y las variaciones del índice DJI en t, t -1, t -2, t -3 y t - 4. Para el caso del índice DJI el modelo de lógica contiene sólo cinco insumos: las variaciones del DJI relativas a los periodos t, t -1, t -2, t -3 y t - 4. Para cada uno de los insumos se consideraron cinco conjuntos de pertenencia, en los que cada uno de ellos corresponde a un quintil de la distribución de frecuencia absoluta simple de las variaciones de precios históricos. En cuanto al producto, los conjuntos de pertenencia son tres: al alza, se mantiene y a la baja.

2. Modelo de lógica borrosa

Al igual que en el caso anterior, se consideró como producto la variación que experimentará el índice bursátil en el periodo t +1. También se consideraron diez insumos: las variaciones en t, t -1, t -2, t - 3 y t - 4 del índice respectivo y las variaciones del índice DJI en t, t -1, t -2, t -3 y t - 4. Para el caso del índice DJI, el modelo de lógica difusa contiene sólo cinco insumos: las variaciones del DJI relativas a los periodos t, t -1, t -2, t -3 y t - 4.

Para cada uno de los insumos se consideraron cinco con juntos de pertenencia: muy bajo la media (MBM), bajo la media (BM), en la media (EM), sobre la media (SM) y muy sobre la media (MSB). Cada uno de estos conjuntos clasifica el insumo en función de qué tan lejos o qué tan cerca se encuentre de la media. Los conjuntos difusos fueron definidos por funciones de pertenencia, las que corresponden a una distribución normal. Así, estas funciones quedaron determinadas por dos parámetros: la media (μi jt) y la desviación estándar (σi j,t ) históricas de los j-ésimos conjuntos de pertenencia. La fórmula general de la j-ésima función de pertenencia para el insumo i en el momento t(i t ) se define de acuerdo con la expresión (2):

(2)

en la que

(3)

(4)

μ1 j,t es la media del j-ésimo conjunto de pertenencia del insumo i, calculada en el momento t a partir de los precios de cierre de las 20 pasadas jornadas bursátiles, periodo que equivale a los días hábiles de un mes de operaciones; μi t corresponde a la variación promedio experimentada por el índice (el insumo i) al momento σi t ; es la desviación estándar de las variaciones del índice al momento t, y α j es una constante que permite delimitar los conjuntos de pertenencia, y que puede asumir los siguientes valores: -2, -1, 0, 1 y 2. Respecto a la expresión (4), σi j,t es la desviación estándar de las variaciones experimentadas por el índice de que se trate (el insumo i), variaciones que han sido clasificadas en el conjunto j;4 e i j,t es el insumo del j-ésimo conjunto de pertenencia registrado en el momento t. De acuerdo con lo anterior, los conjuntos de pertenencia- que se muestran en la gráfica 1 -quedarán delimitados de la siguiente manera:

muy bajo la media:

bajo la media:

en la media:

sobre la media:

muy sobre la media:

GRÁFICA 1 Representación de las funciones de pertenencia de los insumos 

De esta manera, y a modo de ejemplo, el valor de la función de pertenencia muy bajo la media que está asociado al insumo i t representa el grado de pertenencia que tiene dicho insumo al conjunto o intervalo que está ubicado dos desviaciones estándar bajo la media del índice bursátil. Cabe señalar que estas funciones de pertenencia irán cambiando en el tiempo, ya que la media y la desviación estándar serán recalculadas día a día -tanto las totales (μi t y σi t) como las relativas a los conjuntos de pertenencia (μi j,t y σi jt)-, otorgando así mayor flexibilidad a los conjuntos difusos.

Las reglas son construidas a partir de combinaciones aleatorias de los conjuntos de pertenencia, de las que es elegida la combinación que maximice el PPS intramuestral. La elaboración de las reglas es en sí la parte más compleja y delicada en el proceso de lógica borrosa, ya que son éstas y sus combinaciones (operaciones) las que en definitiva determinarán el producto del proceso. La terminología usada para las operaciones de los conjuntos está determinada por las definiciones de Zadeh. En el caso particular de este trabajo la t-norma y t-conorma están definidas como:

Intersección: (5)

Unión: (6)

Complemento: (7)

Estas reglas generan un producto que señala si la variación esperada para el momento t + 1 es negativa, neutra o positiva. Para los productos también se consideraron funciones de pertenencia, las que están determinadas por μ o k,t y σ o k,t , como muestra la expresión (8):

(8)

en la que (9)

y (10)

μo k,t es la media del k-ésimo conjunto de pertenencia del producto o t , calculada en el momento t a partir de los productos de las 20 pasadas jornadas bursátiles; μ o t corresponde a la variación promedio experimentada por el producto o t al momento t; σ o t es la desviación estándar de las variaciones del producto o t al momento t; y a k es una constante que permite delimitar los conjuntos de pertenencia de los productos, y que puede asumir los siguientes valores: -1, 0 y 1. En cuanto a la expresión (10), σ o k,t , es la desviación estándar del producto o k,t durante los pasados 20 días hábiles -incluyendo el momento t-; y o k,t es el producto registrado en el k-ésimo conjunto de pertenencia en el momento t. De acuerdo con lo anterior, los conjuntos de pertenencia del producto -que se muestran en la gráfica 2- quedarán delimitados de la siguiente manera:

a la baja:

se mantiene:

al alza:

GRÁFICA 2 Representación de las funciones de pertenencia de los productos 

El último paso en el proceso fuzzy consiste en la desfuzificación. Tras la aplicación de las reglas si i1 es f 1 y/o i 2 es f 2 y/o… i n es f n , entonces o t es o k , lo que se obtiene es la imagen de la función de pertenencia, es decir, el grado de pertenencia del producto a un determinado conjunto k, cuya inversa proporciona el valor del producto (O t ) correspondiente a ese nivel de pertenencia. Sin embargo, la función exponencial es una función epiyectiva y, por tanto, su inversa deberá estar restringida a un subintervalo de la preimagen.

Los intervalos considerados para la función de pertenencia a la baja son los valores que están sobre la media del conjunto. Para las funciones de pertenencia se mantiene y a la baja se consideraron los valores que están sobre la media. Esto se muestra en la gráfica 3.

GRÁFICA 3 Inversa de la desfuzificación 

Finalmente, si o k,t es el grado de pertenencia obtenido por las combinaciones de reglas, entonces el valor de desfuzificación (O t ) es el promedio del inverso de la función de pertenencia del producto o k,t , es decir:

(11)

De esta manera el valor obtenido tras la desfuzificación es un valor en torno de la media de las variaciones de precio de los pasados 20 días, que indicaría cuál es la tendencia que sigue el movimiento del índice bursátil.

3. Evaluación de la capacidad predictiva

A continuación se evaluó la calidad de cada modelo en función del PPS.5 Luego, se seleccionó el modelo de lógica y de lógica borrosa de mayor PPS, a fin de evaluar los en un conjunto extramuestral de 1 120 datos diarios. Para ello se dividió la muestra total en dos: una de tamaño “n” (llamado conjunto intramuestral y compuesto por mil obser vaciones) para estimar los parámetros que maximicen el PPS, tanto el modelo de lógica como de lógica borrosa; y otra de tamaño “m” (denominado conjunto extramuestral y compuesto por 1 120 observaciones) para evaluar la capacidad predictiva de los modelos. Para realizar esto último se comparó el signo de la proyección con el de la variación observada, en cada t-ésim o periodo, en la que t =1,2,...,m. Si los signos entre la variación proyectada y la variación observada coinciden, entonces se anota un acierto (hit). En caso contrario, se anota un error de predicción, lo cual disminuye la capacidad predictiva del modelo. El PPS de cada modelo se calculó de la siguiente manera:

(12)

(13)

en la que ∆ representa la variación observada de un índice determinado y ⧊ la variación estimada del mismo. Además, en esta etapa se aplicó la prueba de acierto direccional6 de Pesaran y Timmermann (1992), con el objetivo de medir la significación estadística de la capacidad predictiva de los modelos analizados.

Luego, a fin de analizar si la capacidad predictiva de los modelos se traduce o no en beneficios económicos, se calculó la rentabilidad acumulada que se hubiese logrado de haber seguido las recomendaciones de comercio del modelo: comprar si la proyección es al alza y vender si la proyección es a la baja. Para ello se supuso una in versión inicial de 100 mil dólares. Al momento de calcular la rentabilidad de la estrategia de comercio no se realiza ron ventas cortas y se supuso un costo fijo por transacción de 15 dólares.7

Además, con objeto de evitar el problema de data snooping8 -y despejar las dudas respecto a si la capacidad predictiva se debe a la bondad del modelo, a las características de la muestra de observaciones a la que ha sido aplicado, o simplemente al factor suerte-, cada modelo se evaluó con un total de mil subconjuntos extramuestrales, de 209 precios de cierre diarios cada uno. Estos mil sub conjuntos extramuestrales fueron generados a partir del conjunto extramuestral original, utilizando un proceso de block-bootstrap.10

4. Punto de referencia y prueba de significación estadística

4. Punto de referencia y prueba de significación estadística

Los resultados de ambos modelos -de lógica y lógica difusa- fueron comparados con la rentabilidad generada por una estrategia buy and hold.11 Por otro lado, para analizar si existen diferencias estadísticamente significativas entre los PPS de los modelos y entre los rendimientos extranormales de las estrategias de comercio, se realizaron pruebas no paramétricas de hipótesis de diferencias de medias (prueba de Friedman y de Tukey).

III. RESULTADOS

El cuadro 1 presenta los estadísticos descriptivos de los índices analizados. Al analizar la serie de valores de cierre, en primera diferencia, de los índices IPC, DJI, Nasdaq y TSE se encontró que, en los tres primeros casos, el coeficiente de asimetría es negativo, por lo que la distribución presenta un sesgo hacia la izquierda, como consecuencia de la existencia de valores extremos y poco usuales. Por su parte, la distribución de las variaciones de los valores de cierre diarios del TSE presenta un sesgo hacia la derecha. Para el IPC, DJI, Nasdaq y TSE, el valor de la curtosis fue superior a 3. En consecuencia, la distribución de las observaciones adoptó una forma leptocurtósica, con las observaciones concentradas en un estrecho rango de valores y una masa relativamente baja en las colas de las funciones de densidad.

a Índices bursátiles de América del Norte. Entre paréntesis se registra la prueba t. Periodo: 8 de octubre de 1996 al 29 de agosto de 2000, mil observaciones.

b Los valores críticos de los estadísticos Jarque-Bera y t de Student son 4.43 y 1.96, respectivamente, para una =5 por ciento.

c Los va lo res críticos de los estadísticos Wald-Wolfowitz y Cox-Stuart son de 1.96, para un a =5 por ciento.

* Significativo a 5 por ciento.

CUADRO 1. Estadísticos descriptivos para las series de valore de cierre diarios, en primera diferenciaa 

Al analizar los resultados de la prueba de Jarque-Bera se rechazó la hipótesis de que las variaciones de los valores de cierre semanales de los índices IPC, DJI, Nasdaq y TSE siguen una distribución normal, con una significación de 5%. Además, exceptuando el caso del TSE, los coeficientes de autocorrelación para AR(1), AR(2), AR(3) y AR(4) resultaron ser estadísticamente no significativos -a un nivel de significación de 5 y de 10%-, por lo que no se encontró evidencia de autocorrelación entre las variaciones experimentadas por los índices entre los periodos t y t -1, t y t -2, t y t -3 y t y t - 4, respectivamente. Por último, las pruebas de Wald-Wolfowitz (de corridas) y Cox-Stuart (de signos no ponderados) no rechazaron la hipótesis nula de aleatoriedad en las variaciones de los índices accionarios (para el caso del Nasdaq, no existe evidencia concluyente para rechazar dicha hipótesis).

El cuadro 2 resume la capacidad predictiva de los modelos, calculada en el conjunto intramuestral. También muestra el resultado de la prueba de acierto direccional (AD) y la rentabilidad acumulada que hubiera logrado un inversionista al basar su estrategia de comercio en las recomendaciones de compra-venta de los modelos, así como el rendimiento de la estrategia buy and hold. El mejor modelo de lógica obtuvo un PPS de 62, 61, 60 y 59% para los índices IPC, Nasdaq, TSE y DJI, respectivamente. Esta capacidad predictiva, estimada en un conjunto intramuestral de mil datos diarios, resultó estadísticamente significativa en cada uno de los índices. Por su par te, al analizar el PPS de los modelos de lógica borrosa, se encontró que éstos fueron menores (58, 60, 57 y 55%, respectiva mente), resultando también estadísticamente significativos.

a Porcentaje de predicción de signo (PPS) registrado por los modelos, la prueba de acierto direccional (AD) y la rentabilidad acumulada obtenida por la estrategia de comercio durante el periodo intramuestral.

b El valor de z crítico es de 1.96 y 1.64, para una significación de 5 y 10%, respectivamente.

c Rentabilidad acumulada desde el 8 de octubre de 1996 al 29 de agosto de 2000.

* Significativo a 5 por ciento.

CUADRO 2 Resumen de los resultados a partir del conjunto intramuestrala 

Se observó que la capacidad predictiva de los modelos se tradujo en beneficios económicos. Los modelos de lógica obtuvieron el mayor PPS y, simultáneamente, el mayor rendimiento acumulado. Además, independientemente de la significación estadística de la capacidad predictiva de los modelos, éstos superaron en rentabilidad a la estrategia buy and hold, la cual evidenció la rentabilidad más baja en cada uno de los índices analizados. Por lo anterior, siempre fue mejor gestionar la cartera indizada (representada por el índice bursátil) en función de alguno de los modelos de proyección. El cuadro 3 presenta los parámetros estimados para los modelos de lógica y de lógica borrosa, correspondientes a los índices bursátiles IPC, Nasdaq, TSE y DJI.

a Observaciones históricas del conjunto intramuestral. Índices bursátiles IPC, Nasdaq, TSE y DJI.

CUADRO 3 Resumen de los parámetros estimados para los modelos de lógica y lógica borrosaa 

Se probó la solidez de estos resultados a fin de evitar el problema de data snooping. Para ello se tomó el mejor modelo de proyección para cada índice y se lo evaluó en un total de mil conjuntos extramuestrales de 20 datos de cierre diarios cada uno. Estos mil con juntos extramuestrales fueron generados a partir del conjunto extramuestral original utilizando un proceso de block-bootstrap. El cuadro 4 muestra los estadísticos para el PPS (sección A), la prueba AD (sección B) y la rentabilidad acumulada de las estrategias de comercio (sección C). Al analizar el PPS generado en los mil conjuntos extramuestrales por el modelo de lógica, no se rechazó la hipótesis de que el PPS de los índices IPC, DJI, Nasdaq y TSE sigue una distribución normal, con una significación de 5%, de acuerdo con la prueba de Jarque-Bera. En la sección A se observa que, en promedio, el PPS fue de 50.88, 52.58, 49.07 y 52.93% para los índices DJI, IPC, Nasdaq y TSE, respectivamente. Luego, al calcular la prueba AD se encontró que la capacidad predictiva fue significativa sólo en 6, 34, 17 y 29% de los conjuntos extramuestrales analizados para el DJI, IPC, Nasdaq y TSE, respectivamente (véase sección B). Sin embargo, al analizar la rentabilidad acumulada se encontró que -de los mil conjuntos extramuestrales- los modelos superaron el rendimiento de una estrategia buy and hold en 57, 59, 62 y 71% de los casos en los índices DJI, IPC, Nasdaq y TSE, respectivamente, tal como se observa en la sección C del cuadro 4. Por otra parte, y respecto al modelo de lógica borrosa, no se rechazó la hipótesis de que el PPS de los índices IPC, DJI, Nasdaq y TSE sigue una distribución normal, con una significación de 5%, de acuerdo con la prueba de Jarque-Bera. En la sección A del cuadro 4 se observa que, en promedio, el PPS fue de 49.85, 51.58, 48.07 y 52.93% para los índices DJI, IPC, Nasdaq y TSE, respectivamente. Luego, al calcular la prueba AD se encontró que la capacidad predictiva fue significa ti va só lo en 5, 30, 15 y 30% de los con jun tos ex tramuestra - les analizados para el DJI, IPC, Nasdaq y TSE, respectivamente (véase sección B). Sin embargo, la rentabilidad de estos modelos superó de nuevo el rendimiento de una estrategia buy and hold en 55, 57, 59 y 64% de los casos en los índices DJI, IPC, Nasdaq y TSE, respectivamente, como se observa en el cuadro 4, sección C.

a Resultados de los mil conjuntos extramuestrales -de 20 observaciones diarias cada uno- de cada modelo predictivo.

b El valor crítico del estadístico Jarque-Bera es de 4.43, para un a = 5 por ciento.

c Porcentaje de veces en que la rentabilidad del modelo de lógica supera el rendimiento de la estrategia buy and hold, considerando las mil series bootstrap.

d Porcentaje de veces en que la rentabilidad del modelo de lógica borrosa supera el rendimiento de la estrategia buy and hold, considerando las mil series bootstrap

CUADRO 4 Resumen estadístico del PPS, de la prueba de acierto direccional (AD) y de los rendimientos acumuladosa 

Por último, los resultados de la prueba de Friedman (cuadro 5) indican que existen diferencias estadísticamente significativas entre los PPS y los rendimientos anormales generados por los modelos analizados. De manera más específica, la prueba de Tukey señala que no hay diferencias significativas entre el modelo de lógica y el modelo de lógica borrosa, en términos de PPS, pero sí la hay en las rentabilidades, superando el rendimiento del primer modelo a la rentabilidad del segundo. Además, las rentabilidades de los modelos predictivos construidos en función de lógica y lógica borrosa, son estadísticamente superiores al rendimiento de la estrategia buy and hold.

a Para el caso del PPS, el valor crítico de c2 fue de 19.50, para 336 grados de libertad en el numerador, 2 grados de libertad en el de nominador y un nivel de significación de 0.05. Para el caso de la rentabilidad de los modelos, el valor crítico de c2 fue de 8.53, para 336 grados de libertad en el numerador, 3 grados de libertad en el denominador y un nivel de significación de 0.05. El nivel de significación con el cual es comparado el valor p es de 0.05.

CUADRO 5 Pruebas de Friedman y de Tukeya 

Cabe señalar que los resultados apuntan en la misma dirección que los obtenidos en Parisi, Parisi y Cornejo (2004), en el sentido de que es posible establecer modelos predictivos que permitan aumentar el rendimiento de las estrategias de comercio. En dicho estudio, los modelos multivariados producidos por el algoritmo genético tuvieron un PPS extramuestral de 59, 60, 59 y 59% para los índices IPC, Nasdaq, TSE y DJI, respectivamente, en el que la capacidad predictiva es significativa en cada uno de ellos. Además, estos modelos superaron el rendimiento de una estrategia buy and hold en 57, 59, 71 y 41% de los casos en los índices DJI, IPC, TSE y Nasdaq, respectivamente.

CONCLUSIONES

En este artículo se construyó un modelo de lógica y otro de lógica difusa para proyectar -en el momento t- el signo de la variación que experimentarán en el momento t + 1 los índices bursátiles de América del Norte: DJI y Nasdaq (Estados Unidos), IPC (México) y TSE (Canadá). Los datos corresponden al periodo comprendido entre el 8 de octubre de 1996 y el 7 de enero de 2005. Los resultados señalan que el modelo de lógica tendría mayor capacidad que el modelo de lógica borrosa para predecir las variaciones de los índices ya señalados, que esta capacidad predictiva sería estadísticamente significativa y que una estrategia de comercio basada en las recomendaciones de compra-venta dadas por este modelo permitiría obtener rendimientos relativamente más altos. Por último, destacamos que los modelos de lógica y de lógica borrosa superaron, en promedio, los resultados de la estrategia buy and hold, aun cuando se consideró un costo por transacción equivalente a 15 dólares.

Los resultados apuntan en la misma dirección que los obtenidos en Parisi, Parisi y Cornejo (2004), en el sentido de que es posible desarrollar modelos predictivos que permitan incrementar el rendimiento de las estrategias de comercio. En dicho estudio los modelos multivariados producidos por el algoritmo genético obtuvieron un PPS extramuestral de 59, 60, 59 y 59% para los índices IPC, Nasdaq, TSE y DJI, respectivamente, cuya capacidad predictiva es significativa en cada uno de ellos. Además, estos modelos superaron el rendimiento de una estrategia buy and hold en 57, 59, 71 y 41% de los casos en los índices DJI, IPC, TSE y Nasdaq, respectivamente.

De esta manera, se presenta pruebas de que la capacidad de los modelos de lógica y lógica borrosa podría resultar pertinente para predecir el signo de las variaciones de los índices bursátiles abordados en este estudio, lo que los sitúa como una opción al análisis técnico, a los modelos naive, a las redes neuronales y a los algoritmos genéticos aplicados en series de tiempo, para predecir la evolución del mercado bursátil.

AGRADECIMIENTOS

Los autores desean agradecer los comentarios realizados por Jorge Gregoire, Fernando Bravo, Jorge Niño, Alex Silemberger, y a los participantes en el seminario realizado en el Departamento de Administración de la Universidad de Chile. También a Edinson Cornejo, por su labor como asistente de investigación.

REFERENCIAS BIBLIOGRÁFICAS

Chopra, N., J. Lakonishok y J. R. Ritter (1992), “Measuring Abnormal Returns: Do Stocks Overreact?”, Journal of Financial Economics 31, pp. 235-268. [ Links ]

DeBondt, W. F. M., y R. Thaler (1985), “Does the Stock Market Overreact?”, Journal of Finance 40, pp. 793-805. [ Links ]

Dourra, H., y P. Siy (2001), “Stock Evaluation Using Fuzzy Logic”, International Journal of Theoretical and Applied Finance, vol. 4, núm. 4, pp. 585-602. [ Links ]

Fama, E., y K. R. French (1988), “Permanent and Temporary Components of Stock Prices”, Journal of Political Economy, 98, pp. 247-273. [ Links ]

Leung, Mark T., Hazem Daouk y An-Sing Chen (2000), “Forecasting Stock Indices: A Comparison of Classification and Level Estimation Models”, International Journal of Forecasting (16)2, pp.173-190. [ Links ]

Lo, A., y A. C. MacKinley (1988), “Stock Market Price Do not Follow Random Walk: Evidence from a Simple Specification Test”, Review of Financial Studies 1, pp. 41-66. [ Links ]

Parisi, A., F. Parisi y J. L. Guerrero (2003), “Modelos predictivos de redes neuronales en índices bursátiles internacionales”, EL TRIMESTRE ECONÓMICO, vol. LXX (4),núm. 280, pp. 721-744. [ Links ]

______, ______y E. Cornejo (2004), “Algoritmos genéticos y modelos multivariados recursivos en la predicción de índices bursátiles de América del Norte: IPC, TSE, Nasdaq y DJI”, EL TRIMESTRE ECONÓMICO, vol. LXXI (4), núm. 284, pp. 789-809. [ Links ]

Pesaran, M. H., y A. Timmermann (1992), “A Simple Nonparametric Test of Predictive Performance”, Journal of Bus ness and Economic Statistics 10, pp. 461-465. [ Links ]

Poterba, J. M., y L. H. Summers (1988), “Mean Reversion in Stock Prices: Evidence and Implications”, Journal of Financial Economics 22, pp. 27-59. [ Links ]

Tsibouris, G., y M. Zeidenberg (1995), “Testing the Efficient Markets Hypothesis with Gradient Descent Algorithms”, A. P. Refenes (comp.), Neural Net-works in the Capital Markets, Chichester, Reino Unido, Wiley, pp. 127-136. [ Links ]

White, H. (1993), “Economic Prediction Using Neural Net works: The Case of IBM Daily Stock Returns”, R. R. Trippi y E. Turban (comps.), Neural Net - works in Finance and Investing, Nueva York, Irwin, pp. 315-328. [ Links ]

______ (2000), “A Reality Check for Data Snooping”, Econométrica, vol. 68, núm. 5, pp. 1097-1126. [ Links ]

1Dow Jones Industry (DJI) de la New York Stock Exchange (NYSE), Estados Unidos. Índice de Precios y Cotizaciones (IPC) de la Bolsa Mexicana de Valores (BMV), México. Toronto Stock Exchange (TSE), Canadá.

2Véase el apéndice.

3El conjunto intramuestral corresponde al conjunto de datos históricos con los cuales se simulará un millón de posibles combinaciones lógicas, a fin de encontrar el modelo que maximice el PPS. No obstante, al operar en este conjunto, el modelo proyectará las variaciones en t +1 únicamente a partir de la información disponible entre los periodos t - 4 y t.

4µi j,t, µi , O i t y Oi t,j fueron calculados con las variaciones experimentadas por los índices respectivos durante los pasados 20 días de operación bursátil, incluyendo el momento t.

5Se evaluó la calidad de cada uno del millón de modelos generados tanto por el proceso de lógica como de lógica borrosa.

6Directional Accuracy Test.

7Para efectos de realizar un análisis comparativo de la rentabilidad obtenida en los índices bursátiles al aplicar las estrategias de comercio, se consideró como costo de transacción el del mercado bursátil estadunidense, el cual es fijo. El costo de transacción del mercado estadunidense depende del corredor de bolsa (broker) empleado, y fluctúa entre 7 y 20 dólares por transacción. En función de esto, el estudio consideró un costo de 15 dólares por transacción, situando así el análisis en un punto intermedio.

8El término data snooping (también conocido como data mining), “ocurre cuando un determina do conjunto de datos es usado más de una vez para propósitos de inferencia o se lección de modelos. Cuando esta reutilización de datos ocurre, siempre existe la posibilidad de que cualquier resultado satisfactorio que se haya obtenido pueda deberse sencillamente a la suerte, en vez de a algún mérito inherente al modelo que generó esos resultados” (White, 2000). 9 A partir de los datos del conjunto extra muestral, y por medio de un proceso de block-bootstrap, se generaron mil subconjuntos extramuestrales de 20 observaciones diarias cada uno. El tamaño de los subconjuntos busca conformar periodos mensuales de comercio (20 días hábiles). De esta manera se busca analizar la capacidad de los modelos para generar rendimientos extranormales en periodos de corto y largo plazos.

9A partir de los datos del conjunto extramuestral, y por medio de un proceso de block-boots-trap, se generaron mil subconjuntos extramuestrales de 20 observaciones diarias cada uno. El tamaño de los subconjuntos busca conformar periodos mensuales de comercio (20 días hábiles). De esta manera se busca analizar la capacidad de los modelos para generar rendimientos extranormales en periodos de corto y largo plazos.

10Una manera de probarla bondad de los modelos y la validez de sus resultados, independientemente de la muestra de datos a la que ha sido dirigidos, es aplicar un proceso de bootstrap. El bootstrap es un proceso de generación de observaciones ficticias a partir de datos históricos, a fin de dar solución al problema de escasez de datos y, de esta manera, tener suficiente información para elaborar diferentes conjuntos extramuestrales con los cuales probar la validez de los modelos.

11La estrategia buy and hold es una estrategia de inversión pasiva que no aplica gestión alguna. Consiste en comprar el activo de que se trate y mantenerlo durante todo el periodo de inversión, para venderlo al final de éste. La rentabilidad de esta estrategia está dada por la diferencia entre el valor de venta y el de compra del activo analizado.

APÉNDICE

Las operaciones en conjuntos establecen las reglas para determinar los conjuntos de unión, intersección y complemento. Éstos se construyen por medio de funciones que manipulan los conjuntos para obtener nuevos conjuntos. Cada planeador puede definir o elegir la operación de unión, intersección o complemento que desee. Estas operaciones deben cumplir con ciertas características:

  • i) El complemento del conjunto borroso A, C(A), es el conjunto que contiene los elementos que no pertenecen a A. Cumple con: Contorno, en los extremos se comporta igual que la negación nítida. C(1) = 0 y C(0) = 1; Monotonía, el complemento es monótono no decreciente; Involución, C(C(A)) = A.

  • ii) La intersección “i” asociada a los conjuntos borrosos A y B cumple las siguientes propiedades: Contorno, en los extremos se comporta igual que la intersección nítida, es decir i(0, 0) = 0; i(0, 1) = 0, e i(1, 1) = 1; Conmutatividad, i(A, B) = i(B, A); Monotonía, la intersección “i” es monótona creciente, es decir: AϵA’, BϵB’⇒ i(A, B) ϵ i(A’, B’); Asociatividad, i(i(A, B),C) = i(A, i(B,C)). Las funciones que verifican estas propiedades se denominan t-normas.

  • iii) La unión “u” de los conjuntos borrosos A y B la denotamos por u(A, B) la cual cumple con las siguientes propiedades: Contorno, en los contornos se comporta igual que la intersección nítida. u(0, 0) = 0; u(0, 1) = 1; u(1, 1) =1; Conmutatividad, u(A, B) = u(B, A); Monotonía, la unión “u” es monótona creciente, es decir, AϵA’,BϵB’⇒ u(A, B) ϵ u(A’, B’); Asociatividad, u(u(A, B),C) = u(A, u(B, C)). Las funciones que cumplen estas propiedades se denominan t-conormas.

La t-normas y la t-conormas se hallan relacionadas. De este modo, fijando una de ellas se puede deducir la otra. A modo de ilustración, en el siguiente cuadro se presentan algunas reglas de t-normas y t-conormas sobre conjuntos difusos.

CUADRO A1. Ejemplo de reglas de t-normas y t-conormas 

Recibido: 14 de Abril de 2005; Aprobado: 16 de Agosto de 2005

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons