SciELO - Scientific Electronic Library Online

 
vol.76 número301Pobreza relativa y absoluta. El caso de México (1992-2004) índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


El trimestre económico

versión On-line ISSN 2448-718Xversión impresa ISSN 0041-3011

El trimestre econ vol.76 no.301 Ciudad de México ene./mar. 2009  Epub 20-Nov-2020

 

Perspectiva económica

“Sociomática”: el estudio de los sistemas adaptables complejos en el entorno socioeconómico

Gonzalo Castañeda1  * 

1 Investigador de El Colegio de México.


Resumen:

En este artículo se presenta un programa de investigación que vincula la teoría de la complejidad con el estudio de los sistemas socioeconómicos. A este enfoque del paradigma evolutivo se le denomina “sociomática” en tanto que abarca distintas disciplinas de las ciencias sociales y hace uso de la computadora para simular el comportamiento y la interacción de agentes heterogéneos. El cuerpo central de la sociomática consiste en una metateoría que establece las premisas del comportamiento humano (agencia) y la manera en que éste se ve condicionado por un proceso de inserción social (estructura). Asimismo, se afirma que los modelos basados en agentes permiten describir distintas topologías de interacción social, que logran caracterizar la coevolución de las variables endógenas de las arenas económica, social y política, y entre estas arenas superficiales y el sustrato sociocultural.

Palabras clave: teoría de la complejidad; simulación con agentes; socioeconomía evolutiva

Abstract:

This paper presents a research program that links complexity theory with the study of socioeconomic systems. This approach of the evolutionary paradigm is referred to as sociomatics since it covers different disciplines in the social sciences and makes use of computers to simulate the behavior and interaction of heterogeneous agents. The central body of sociomatics consists of a meta-theory that establishes the premises of human behavior (agency) and the form this behavior is conditioned by a process of social embeddedness (structure). Likewise, it is asserted that models based on agents allow describing different topologies of social interaction which, in turn, make possible to characterize the co-evolution of endogenous variables in the economic, social and political arenas, and between these superficial arenas and the socio-cultural substratum.

Clasificación JEL: B41, B52, C63.

Introducción

En la actualidad existen dos paradigmas principales del conocimiento microeconómico: el neoclásico poswalrasiano (Bowles y Gintis, 2000a) y el evolutivo (Dosi y Winter, 2000; Hodgson 1993); el primero de ellos es considerado como la ortodoxia del siglo XX dado su predominio en los campos de la enseñanza, la investigación científica y la aplicación de políticas públicas. La economía neoclásica, apegada a la mecánica newtoniana, se distingue por estar basada en cuatro pilares fundamentales: preferencias exógenas, actores representativos, racionalidad y equilibrio, en tanto que la economía evolutiva, vinculada a la biología darwiniana, rechaza estas premisas y proclama la necesidad de modelar los fenómenos socioeconómicos como sistemas abiertos caracterizados por la continua adaptación al entorno.

Mientras que el enfoque neoclásico poswalrasiano tiene un cuerpo de premisas muy claramente definido, como se observa en los libros de texto de microeconomía más respetados (Varian, 1992; Kreps, 1990, y Mass-Collell et al, 1995), el paradigma de la economía evolutiva está constituido por un conjunto disperso de tribus cuyas premisas metodológicas no son compartidas por todos sus seguidores (Tavares-Silva, 2004). La gama de enfoques es muy variada, al abarcar desde los economistas que tienen un posicionamiento posschumpeteriano à laNelson y Winter (1982), en el que el crecimiento se da en un contexto de incertidumbre y el cambio tecnológico surge del éxito de innovaciones adoptadas por empresas que buscan satisfacer ciertas metas mínimas de desempeño, hasta los economistas de corte institucionalista à laVeblen (1919) que destacan el papel de los hábitos y las normas sociales para explicar el comportamiento económico y la creación de instituciones formales que restringen el accionar humano.

Si bien algunos economistas evolutivos emplean instrumentos formales para elaborar sus teorías (simulaciones numéricas en el caso posschumpeteriano y juegos evolutivos en el caso institucionalista), pareciera que la falta de metodologías de uso generalizado ha minado las posibilidades de que este paradigma sea aceptado por un grupo más amplio de economistas. Por lo contrario, la escuela neoclásica de pensamiento ha extendido su dominio en la investigación económica gracias al uso de un sólido aparato analítico, como lo es el conformado por el cálculo diferencial e integral, las ecuaciones diferenciales o en diferencia, la topología y, más recientemente, la optimación dinámica y la teoría de juegos clásica.

Así, la debilidad metodológica del enfoque evolutivo vis à vis la concepción neoclásica tiene relación, en primer término, con la falta de una metateoría que haga explícitas sus premisas y le dé congruencia al marco teórico con que estudiar el comportamiento humano y la manera en que éste es condicionado por la estructura en la que se desenvuelve y, en segundo término, con la carencia de instrumentos formales que permitan formular y verificar hipótesis concretas del desempeño colectivo de actores cuyas acciones individuales se realizan con algún propósito. En atención a lo anterior, el objetivo de la sociomática es integrar elementos que se encuentran dispersos en la bibliografía científica para superar estas deficiencias y, con ello, darle forma a otro programa de investigación en el que el avance teórico se dé a la par de la verificación empírica.

Cabe destacar que este enfoque evolutivo no se circunscribe a la esfera económica ya que también permite explorar planteamientos que tradicionalmente han sido estudiados desde otras disciplinas sociales (historia, sociología, antropología, psicología social y ciencia política), lo que es posible gracias a la posición abierta que adopta en relación con el condicionamiento de la conducta humana. Por otra parte, los instrumentos utilizados en la sociomática son de dos tipos: la modelación de agentes de software que se desenvuelven en mundos in-silico o sociedades artificiales, y la construcción de modelos matemáticos no lineales con agentes heterogéneos que hacen uso de la simulación numérica para explorar hipótesis. En consecuencia, el término sociomática se identifica con el estudio de los procesos sociales mediante el uso de tecnologías informáticas que permiten realizar simulaciones con agentes que actúan de manera descentralizada (de abajo-arriba).

1. La construcción de una metateoría según el paraguas de la teoría de la complejidad

Con el paso de los años la economía evolutiva se ha insertado dentro de una visión científica mucho más amplia, como la que ofrece la teoría de la complejidad, y al apelar no sólo a argumentos biológicos evolutivos sino también de la física cuántica y la química del desequilibrio (Nicolis y Prigogine, 1989; Auyang, 1998). El estudio de los fenómenos socioeconómicos con el concepto de sistemas adaptables complejos (o CAS de acuerdo con sus siglas en inglés) ha hecho posible identificar principios universales que anteriormente pasaban inadvertidos y disponer de un instrumental poderoso con el que explorar una amplia gama de teorías.

En este artículo se presenta una metateoría que ayuda a formular planteamientos adaptativos para explicar lo que sucede en las arenas socioeconómicas, en el entendido de que los seres humanos se desenvuelven en distintos CAS. Si bien es cierto que la teoría de la complejidad habla de un orden universal que se manifiesta con la presencia de la autoorganización en fenómenos naturales y sociales (Waldrop, 1992; Kauffman, 1993), también es evidente que la dinámica evolutiva varía de un ámbito a otro. En particular, las capacidades cognitivas del individuo, la intencionalidad de sus acciones y el andamiaje institucional en el que se desenvuelve hacen imprescindible la construcción de una metateoría propia para modelar el comportamiento humano y la dinámica colectiva que propicia su interacción.

La creación de mundos in-silico para el estudio de los CAS socioeconómicos es poco rigurosa cuando no se cuenta con una metateoría. En particular, el investigador requiere ser muy preciso al especificar cuáles son los mecanismos de formación de expectativas y toma de decisión de los agentes. Aunque la teoría de la complejidad busca entender comportamientos colectivos complejos a partir de reglas individuales sencillas, la simplicidad de estas reglas no impide que su formulación esté basada en elementos realistas del comportamiento humano. Por esta misma razón, el concepto de interacción local que caracteriza a esta teoría resulta vacío si no se define la estructura socioeconómica en la que se desenvuelven los miembros de la comunidad en estudio.

La elaboración de esta metateoría no parte de 0, ya que las piezas principales del rompecabezas ya han sido elaboradas por distintos autores. Estas piezas se encuentran dispersas, principalmente, en la bibliografía de economía evolutiva, experimental, del comportamiento, institucional y en la sociología económica; campos que a su vez se han enriquecido con metáforas y evidencias provenientes de otras disciplinas sociales. Al marco metodológico que surge de este proceso de ensamblaje se le denomina “teoría evolutiva de la agencia humana” (o ETHA por las siglas del término en inglés). Esta metateoría de la sociomática va más allá de sencillas modificaciones al esquema neoclásico a pesar de retener la premisa de que los individuos se comportan de manera intencionada. Según la ETHA el comportamiento humano es condicionado por factores socioculturales, dado que un proceso de inserción social es el que le da forma al aparato analítico de la toma de decisiones del individuo.

2. La simulación por medio de sociedades artificiales y ecuaciones dinámicas no lineales

Aparte de la congruencia que ofrece una metateoría, el éxito relativo de un paradigma científico depende de la existencia de un conjunto de instrumentos con los que plantear y verificar hipótesis. La formalización matemática de la economía neoclásica en la segunda parte del siglo XX coadyuvó a que ésta se posicionara muy por delante de otras disciplinas sociales en términos de rigor teórico. Ejemplos de esto son el uso de la teoría de probabilidad para modelar la toma de decisiones en un contexto de riesgo, la aplicación de la optimación dinámica para incorporar la intertemporalidad de dichas decisiones, la aplicación del teorema de punto fijo para modelar la formación de expectativas, la adopción de la teoría de juegos clásica para formular decisiones estratégicas en intercambios en los que el número de actores es reducido y el vector de precios no está dado y, finalmente, el desarrollo de técnicas econométricas para verificar hipótesis cuando la base de datos no proviene de un diseño experimental.

Por ello, la teoría de la complejidad y la sociomática requieren instrumentos propios que les permitan explorar hipótesis con un enfoque diferente del neoclásico. En la medida en que no se haga uso de estos instrumentos los planteamientos teóricos que se formulen resultan ser meramente especulativos, las exposiciones narrativas tienden a apoyarse en relaciones incongruentes difíciles de detectar, y las críticas esgrimidas respecto a los supuestos neoclásicos caen en oídos sordos ante la dificultad que implica modelar matemáticamente agentes y contextos con premisas más realistas.

Por fortuna, la capacidad de cómputo ha crecido de manera exponencial en los pasados tres decenios y, con ello, se ha estimulado la construcción de sociedades artificiales que incorporan elementos no lineales inherente a los fenómenos socioeconómicos. El “dejar crecer” la actividad de los agentes en un mundo in-silico contribuye a explicar lo que ocurre en el mundo real en la medida en que los datos que se producen en la simulación concuerden con un conjunto de estadísticas calculadas a partir de la evidencia empírica. Por tanto, el desarrollo de los modelos computacionales basados en agentes (ABM) ha hecho factible detectar patrones macroscópicos (teoremas de suficiencia) con los que verificar las hipótesis formuladas. Asimismo, la computadora permite identificar patrones por medio de simulaciones numéricas con modelos de ecuaciones no lineales que implican a agentes heterogéneos (HAM) en los cuales la configuración social coevoluciona con el desempeño de variables agregadas socioeconómicas.

3. La sociomática como un programa de investigación de las ciencias sociales

La sociomática no es un nuevo paradigma sino una “tribu” más de la economía evolutiva, la que recientemente ha adquirido una visión más universal al encuadrarse en la perspectiva de la teoría de la complejidad. Tampoco se trata de una disciplina específica, ya que su objetivo es estudiar los efectos colectivos de la interacción de agentes que se desenvuelven simultáneamente en las arenas social, económica y política; descarta de esta manera la visión fragmentada del quehacer humano con la que se identificaron las ciencias sociales a lo largo del siglo XX. Más bien, la sociomática es un nuevo programa de investigación que hace uso de instrumentos capaces de estudiar fenómenos no lineales y establece una bisagra metodológica entre la concepción del mundo propia de la teoría de la complejidad y el estudio de los sistemas adaptables complejos en el entorno socioeconómico; por tanto, la sociomática constituye otra manera de apreciar el mundo socioeconómico que resulta de combinar la teoría de la complejidad con una metateoría del comportamiento humano y un aparato analítico, es decir, sociomática = CAS + ETHA + /ABM HAM.

Este artículo se estructura de la siguiente manera. En la sección I se revisa brevemente los principales conceptos de la teoría de la complejidad. En la sección II se precisa la necesidad de contar con una metateoría y premisas explícitas para que un paradigma sea coherente. En la sección III se define la toma de decisiones del homo socioeconomicus. En la sección IV se analiza el entorno de interacción social y los mecanismos de evolución de los procesos socioeconómicos. En la sección V se hace referencia a los instrumentos no lineales (algorítmicos y numéricos) basados en agentes que dan forma a las simulaciones con las que se plantean hipótesis. En la sección VI se establece la interrelación entre la evidencia empírica y la formulación de modelos basados en agentes computacionales. Finalmente, el artículo termina comentando que dicha metateoría se podrá depurar en el futuro en función de los avances que se logren en la economía experimental y del comportamiento, además de sugerir que la difusión de este programa de investigación hace imprescindible la elaboración de libros de texto que presenten todas estas ideas de manera didáctica y sistemática.

I. Un breve repaso de la teoría de la complejidad

Aunque es cierto que la especialización del conocimiento brinda los beneficios de la profundización también lo es que inhibe el desarrollo de una visión ecléctica de los fenómenos y dificulta la aplicación de metáforas a partir del conocimiento generado en otras disciplinas. La teoría de la complejidad, con su perspectiva interdisciplinaria, ha mostrado que existen determinados principios universales que son igualmente válidos en el campo de la biología, la física, la economía o la sociología, por lo que teorías e instrumentos de análisis creados en una disciplina pueden ser aplicados fructíferamente en otros ámbitos del conocimiento. El valor de las metáforas resulta innegable si se recuerda que la teoría neoclásica provino de una metáfora de la física mecánica, la economía evolutiva de una metáfora de la biología evolutiva, y la biología darwiniana se creó a partir de la teoría maltusiana de competencia en los mercados.

1. ¿Qué es un sistema adaptable complejo?

Flake (1998) resalta tres atributos que están siempre presentes en un sistema adaptable complejo (CAS): i) multiplicidad de agentes, ii) realimentación y iii) adaptación. Es decir, los sistemas complejos están formados por una colección de unidades o agentes que se desenvuelven en una estructura o en torno de interacción, por lo que a pesar de que su comportamiento individual sea muy sencillo, el resultado de su interacción da lugar a fenómenos relativamente elaborados. La realimentación es inherente a los CAS y se manifiesta con la presencia de relaciones bidireccionales agente ↔ agente o agente ↔ entorno, lo que da lugar a fenómenos no lineales y a la coevolución entre variables. La multiplicidad de interacciones hace que el sistema sea relativamente robusto, ya que cuando se produce una falla aleatoria en uno de los agentes la operación de los demás mitiga las consecuencias de dicha falla. Asimismo, la adaptación hace al sistema relativamente eficiente en la medida en que la especialización y la existencia de variantes permiten a unas especies sobrevivir o a unas empresas ser rentables en un entorno de competencia.

La presencia de estos tres atributos lleva a definir a un sistema adaptable complejo como una colectividad de agentes que al interactuar entre sí y adaptarse al entorno produce fenómenos sofisticados (o propiedades emergentes) que no son el resultado directo de las propiedades inherentes a los agentes individuales que lo conforman. Cabe aclarar que el término adaptable puede tomar diferentes matices (Tesfatsion, 2006): i) se habla de una adaptabilidad reactiva cuando las unidades o agentes del CAS exhiben diferentes atributos o acciones con las que responden a las modificaciones que experimenta el entorno; ii) se habla de una adaptabilidad por objetivos cuando, además de ser reactivos, los agentes modifican de cierta manera su estructura interna para alcanzar sus objetivos; iii) se habla de una adaptabilidad planeada cuando además de ser motivados por sus objetivos los agentes buscan tener cierto control del entorno para así mejorar la posibilidad de alcanzarlos.

A partir de estas definiciones, un ejemplo de un CAS reactivo sería el tráfico vehicular en el que los agentes modifican su manera de manejar ante la presencia de lluvia (poca visibilidad, frenos mojados y asfalto resbaloso), pero sin perturbar su estructura interna. En cambio, un ejemplo de un CAS con objetivos estaría dado por un sistema ecológico en el que la presa o el depredador modifican su composición genética al paso de varias generaciones para sobrevivir como especies. Finalmente, un ejemplo de un CAS con planeación sería una empresa cuyos actores cambian sus estrategias de negocios ante nuevos cambios tecnológicos para modificar las condiciones de competencia en el mercado.

2. Los agentes que conforman un CAS

Un agente es una unidad autocontenida (o encapsulada), que tiene sus propias reglas de comportamiento y autonomía de acción (autodeterminación y autoactivación), y cuyo desempeño se manifiesta como producto de la interacción con otros agentes y el entorno en que se desenvuelve. Los agentes pueden ser biológicos (células, organismos, especies), físico-químicos (átomos, moléculas) o sociales (individuos, empresas, organizaciones políticas), y tienen capacidades cognitivas en la medida en que pueden comunicarse socialmente (por medio del lenguaje, la segregación de químicos) y aprender social (las conductas se modifican a lo largo de generaciones) o individualmente (la reglas de comportamiento se modifican con base en la experiencia propia).

Los agentes construidos para estudiar el desempeño de una colectividad en un mundo virtual o in-silico, como los utilizados en los modelos basados en agentes (ABM), son programas de software que representan entidades físicas, sociales o biológicas y que cuentan con métodos (procedimientos para actuar y funciones objetivos por evaluar) y datos (información de su estado, el del entorno y el de sus interlocutores), en tanto que sus capacidades cognitivas se describen como reglas o programas para modificar sus propios métodos. Ejemplos refinados de estos programas de aprendizaje son los algoritmos genéticos y las redes neuronales (Holland, 1995, 1998).

Los procesos de interacción local hacen que un agente (individuo, hormiga, vehículo o empresa) incida en el comportamiento de otro; por ello, se dice que en los CAS predomina la “realimentación positiva” y la no linealidad de los fenómenos. Es decir, las consecuencias de acciones iniciales son magnificadas con el transcurso del tiempo, ya que dichas acciones influyen en el comportamiento de otros agentes. Situación que contrasta con lo que ocurre en los sistemas que se caracterizan por la “realimentación negativa”, en los cuales los efectos iniciales tienden a desvanecerse con el tiempo. Por tanto, los análisis en que el equilibrio es impuesto por el investigador como una condición de congruencia del modelo están, implícitamente, descartando la posibilidad de perturbaciones desestabilizadoras que son endémicas a los CAS.

La no linealidad de un CAS hace que periodos de cambios marginales en las variables macroscópicas se intercalen con periodos de modificaciones drásticas, lo que abre la posibilidad de que pequeñas perturbaciones originen manifestaciones muy diferentes dependiendo de cuál sea la base de atracción en la que se encamina el proceso dinámico. La no linealidad incide en la capacidad de predicción de los modelos que describen a algún CAS, dado que no es posible identificar los hechos grandes con causas grandes y a los pequeños con causas pequeñas. De igual manera, la interacción que caracteriza a los sistemas complejos hace que el aprendizaje adquiera un matiz coevolutivo en el que las acciones de unos dependen de las expectativas que se tengan del comportamiento de otros. Así en un CAS socioeconómico las variables macroscópicas dependen de cuáles sean las expectativas de los individuos que lo conforman y, a su vez, los fenómenos agregados que se observan inciden en la formación de expectativas.

3. Los procesos emergentes y el anidamiento de los CAS

Uno de los elementos más distintivos de un CAS es la presencia de patrones emergentes en los que fenómenos globales y la estructura de una colectividad se producen como resultado de la interacción de sus partes. Dichos procesos emergentes generan un patrón relativamente complejo en la medida en que éste no se puede inferir de manera inmediata a partir de las reglas de comportamiento de los agentes individuales. Asimismo, se dice que la auto-organización de un sistema se efectúa cuando el proceso emergente correspondiente produce una regularidad estadística (Krugman, 1996). De acuerdo con Flake (1998) la naturaleza es muy frugal, ya que los científicos han encontrado una y otra vez que las reglas de interacción de los agentes tienden a ser relativamente sencillas y que éstas suelen aparecer en distintos contextos, independientemente de lo complejo que sea el comportamiento del agregado y de que el CAS se conforme con agentes vivos o inanimados. Así, por ejemplo, cuando se examinan las moléculas del agua de manera aislada difícilmente se puede inferir que un millón de estas moléculas al interactuar entre sí a una temperatura templada produzcan un líquido.

Sin embargo, los patrones emergentes más relevantes son los que dan origen a una mayor complejidad. Esta refinación se genera cuando el orden emergente de un CAS produce elementos permanentes que al interactuar entre sí dan lugar a un nuevo CAS. Por ejemplo, cuando las células que forman un CAS dan origen a un organismo, éste pasa a formar parte de un nuevo CAS en el momento en que empieza a interactuar con otros organismos. De igual manera, los individuos que interactúan en un CAS forman empresas que, a su vez, crean otros CAS socioeconómicos más elaborados como serían los aglomerados industriales y las ciudades.

Un sistema dinámico puede alcanzar gran complejidad cuando surgen componentes fijos como resultado de sus procesos emergentes, los que, a su vez, permiten crear entes que se comporten como agentes. Es decir, se requiere que emerjan elementos estables como la memoria, atributos genéticos, comportamientos, nichos o especies para que se formen agentes autónomos cuya actividad sea independiente de los factores subyacentes que le dieron origen. En este sentido se dice que un CAS es autosimilar puesto que sus agentes pueden también ser considerados como CAS anidados, aunque estos últimos presenten dinámicas particulares. Así, por ejemplo, los genotipos son agentes que inciden en la conformación de los fenotipos que delinean las características físicas de una persona, pero no se puede pensar que estos mismos genotipos tengan relación con patrones culturales de una sociedad y la manera en que los individuos se organizan. Aunque el CAS sociocultural esté construido sobre los pilares del CAS biológico, y el primero no pueda existir sin el segundo, ello no implica que los genes ejerzan un control directo del fenotipo extendido (cultura, tecnología, instituciones).

II. Los fundamentos de la metateoría

Los fenómenos socioeconómicos pueden ser considerados como resultado de la autoorganización de diferentes CAS (empresas, mercados, ciudades, sistemas políticos); sin embargo, para explicarlos a partir de teorías específicas se requiere una bisagra o interfase metodológica que los vincule con el marco general de la complejidad. En sociomática dicho papel lo realiza la teoría evolutiva de la agencia humana (ETHA), la cual sostiene que la naturaleza evolutiva del CAS sociocultural hace que las preferencias, las creencias y las restricciones normativas que acotan la toma de decisiones varíen en el tiempo y en el espacio.

1. Las premisas con las que se construye la ETHA

Los fundamentos teóricos de la ETHA para describir los CAS socioeconómicos están basados en las siguientes premisas: i) el entorno se caracteriza por la existencia de incertidumbre y, en consecuencia, las contingencias que enfrentan los individuos rara vez se pueden identificar por medio de distribuciones de probabilidad; ii) los seres humanos toman decisiones guiadas por incentivos, pero su comportamiento está condicionado por el contexto social; iii) las capacidades cognitivas del individuo para procesar información y analizar deductivamente el entorno a su alrededor son limitadas, por lo que su comportamiento se describe mejor por medio de criterios de racionalidad acotada que destacan sus capacidades inductivas; iv) los sistemas sociales no están formados por agentes representativos (hogares, consumidores, empresas, organizaciones o países), sino más bien por actores socioeconómicos heterogéneos que exhiben diferentes atributos, expectativas o predisposiciones socioculturales; v) el sistema socioeconómico presenta desequilibrios endémicos ya que la novedad o las incongruencias dinámicas perturban con frecuencia el status quo, y vi) la sociedad está compuesta por una multiplicidad de agentes que interactúan de modo cotidiano en un espacio esencialmente local, lo que acota la in fluencia de la realimentación.

Dosi y Winter (2000) sostienen que las teorías que se definen como evolutivas en la bibliografía económica presentan en mayor o menor medida los elementos señalados en los puntos i)-v), en tanto que el punto vi) es una pieza central de la teoría de la complejidad. Cabe destacar, entonces, que sin una metateoría explícita y congruente es poco probable que la perspectiva evolutiva y la teoría de la complejidad puedan desplazar a la ortodoxia actual, y mucho menos sentar las bases para que en un futuro se puedan elaborar estrategias y políticas económicas o sociales con fundamentos científicos más sólidos.

2. El realismo de los supuestos y los problemas abiertos

Aunque la sociomática se identifica con la escuela “realista” del pensamiento social (Archer, 1995), según la cual la verificación de los fundamentos es tan importante como la posibilidad de refutar hipótesis, ello no implica que la complejidad observada en el entorno socioeconómico no se pueda simplificar sin caer en los excesos de un reduccionismo analítico. Así, el estudio de los CAS socioeconómicos se debe efectuar a partir de un marco teórico que destaque los procesos evolutivos, el desequilibrio y la interacción local, a pesar de que ello implique una visión abierta de los fenómenos por estudiar; entendiendo como tal la imposibilidad de describir de manera deductiva las consecuencias de cualquier perturbación en el sistema por no contar con un problema claramente definido.

Indefinición que surge como consecuencia de la falta de un cierre impuesto en el modelo por el mismo investigador con el propósito de eliminar todas las interrelaciones entre diferentes CAS. En el modelo neoclásico dicho cierre se establece matemáticamente incorporando condiciones de equilibrio, distribuciones de probabilidad conocidas ex ante por los agentes, preferencias supuestas axiomáticamente y expectativas racionales. En contraste, en la ETHA las discrepancias cronológicas de los diferentes procesos evolutivos que condicionan el comportamiento humano (biológico, sociocultural, institucional y tecnológico) hacen posible una simplificación del problema al suponer que algunos de ellos se mantienen inalterados para efectos de la explicación de un fenómeno en particular.

Esta visión cuasi abierta del mundo dificulta el uso de instrumentos deductivos para realizar pronósticos, tanto por parte del investigador como de los agentes que componen un CAS. En lugar de ello, la simulación de sociedades artificiales y las simulaciones numéricas de ecuaciones no lineales hacen factible el estudio de los fenómenos dinámicos de largo plazo que preocupan a los economistas evolutivos (crecimiento económico, difusión tecnológica, evolución social, cambio institucional), además de que permiten estudiar problemas que tradicionalmente se analizan desde un enfoque más estático (incidencia fiscal, determinación de precios, acciones colectivas, incentivos contractuales). Estas últimas problemáticas son en realidad dinámicas y se originan a partir de la continua interacción local, por lo que resulta adecuado el uso de la teoría de la complejidad para estudiarlas. Cuando una empresa elige una estrategia de mercadotecnia o un funcionario de Hacienda define una determinada política impositiva, sus consecuencias se derivan de la manera como reaccionan los agentes ante la nueva estrategia y cómo ello incide en sus interacciones cotidianas. Los patrones emergentes correspondientes se pueden observar al dejar correr el tiempo, lo que en términos experimentales sólo se aprecia con simulaciones.

III. El homo socioeconomicus

La teoría evolutiva de la agencia humana se construye sobre la idea de que el comportamiento está condicionado, más no determinado, por factores socioculturales y, en particular, por un proceso de inserción social como el sugerido por Polanyi (1957), Granovetter (1985) y Bordieu (1991). Esta concepción rechaza la definición axiomática de las preferencias y, en cambio, sugiere que las preferencias, creencias y restricciones normativas que acotan el libre albedrío (o agencia) de los individuos son producto de la evolución sociocultural de la comunidad. La ETHA adopta el marco metodológico de la escuela “realista del pensamiento social” al elaborarse sobre la base de aseveraciones ontológicas. Estas aseveraciones son los “axiomas empíricos” que le dan forma a una metateoría del comportamiento humano, los cuales son considerados como válidos mientras no sean descartados por pruebas sólidas que los contradigan.

En la ETHA se considera que varios módulos de comportamiento hacen factible la toma de decisiones y, por ello, la actividad humana se caracteriza por la búsqueda continua de soluciones a los problemas que plantea el entorno (Mantzavinos, 2001). Estos módulos (preferencias, capacidades cognitivas, restricciones normativas-emotivas e interacción social) son producto de la evolución genética y, por ende, comunes a todos los humanos; de tal manera que su naturaleza transhistórica hace posible la elaboración de una metateoría universalmente aplicable. Sin embargo, para que una metateoría sea útil en la explicación del comportamiento agregado es necesario que ésta se ajuste a la especificidad histórica de cada tiempo y lugar (Hodgson, 2001). El hecho de que la interacción social sea uno de estos módulos hace que las prácticas culturales sean específicas a cada comunidad y sociedad y, por tanto, el aparato analítico de la toma de decisiones en la ETHA es condicionado por las normas sociales, hábitos, creencias e ideología que resultan de la inserción social del individuo.

Los diferentes módulos del aparato analítico de toma de decisiones, definido aquí como el homo socioeconomicus, son afectados por tres CAS anidados: psicobiológico, sociocultural y socioeconómico; este último es el que caracteriza a los sistemas adaptables complejos de los dominios superficiales o arenas social, política y económica. Todos estos CAS son producto de la evolución e interacción entre agentes, aunque, sólo el sociocultural y el socioeconómico son pertinentes para analizar la influencia que tiene la historia contemporánea y el contexto social en el desempeño de los individuos en una determinada comunidad o grupo social. Cabe señalar que la visión de que la economía está anidada en un sistema global de la sociedad no es ajena al pensamiento económico, ya que esta formulación se encuentra en los trabajos de Hayek (1967). Para este autor existen tres niveles de evolución: el genético, la producción de la inteligencia humana y el conocimiento en el que se inserta la economía, y el cultural que tiene que se relaciona con la selección de las reglas de interacción social.

1. Los CAS subyacentes como factores condicionantes del comportamiento humano

La pertinencia de los CAS subyacentes del comportamiento humano ha sido documentada en estudios de antropología, biología y psicología (Cartwright, 2000). El CAS psicobiológico es el más profundo, ya que su conformación se realizó durante la etapa de evolución biológica del ser humano; en contraste, el CAS sociocultural se ubica en un nivel superior, porque está relacionado con los procesos cotidianos de interacción social (Dunbar, 1999; Fukuyama, 1999). Cabe destacar que como producto de la coevolución entre estos dos CAS existe una dinámica intermedia conocida como estructura biocultural. Esta dinámica evolutiva influye en los comportamientos que tienen una función biológica pero sin alterar los elementos genéticos que definen a los humanos como una especie, aunque sí ejercen un importante efecto positivo o negativo en la supervivencia de una comunidad (Durham, 1991).

De acuerdo con estudios de psicología evolutiva (Cosmides y Tooby, 1987, y Buss, 1999), la mente humana puede procesar la información que obtiene del mundo exterior, por que el cerebro se estructuró, a lo largo del periodo de evolución biológica, con diferentes funciones y módulos capaces de resolver problemas. Las capacidades cognitivas y emotivas se localizan en áreas específicas del cerebro humano de la misma manera que funciones como la visión, la motricidad y el lenguaje. La mente del humano actual reacciona a entornos que son muy diferentes a los que existían cuando el genoma fue codificado; por tanto, los psicólogos argumentan que el avance evolutivo de la mente no emergió a partir de comportamientos específicos, sino de capacidades psicológicas para procesar información; capacidades que, en consecuencia, pueden generar comportamientos que no existían en la prehistoria.

2. Módulos de toma de decisiones

La ETHA rechaza la concepción del individuo como un agente que sólo se preocupa por obtener los bienes y servicios que le generan bienestar al ser consumidos (preferencias vinculadas a resultados), que sólo realiza acciones motivadas por sus intereses personales (preferencias vinculadas al ego), y cuyos gustos y propensiones se determinan de manera ajena al sistema social (preferencias exógenas). Sin embargo, este planteamiento no rechaza el postulado de que el comportamiento humano se puede analizar mediante un modelo de toma de decisiones que implica preferencias, creencias y restricciones (Henrich et al, 2005; Gintis, 2006).

Por otra parte, la racionalidad es inherente al ser humano ya que existe evidencia empírica derivada de pruebas experimentales de “preferencia revelada” que justifica el modelo de toma de decisiones racional, al menos cuando los problemas están bien definidos (Andreoni y Miller, 2002). Asimismo, apoyado en estudios antropológicos, Gintis argumenta que el razonamiento y la toma de decisiones evolucionaron en los humanos al conferirle a sus portadores una mayor capacidad de adaptación al entorno, a pesar del alto costo que implica que un organismo disponga de cerebros complejos. Este mismo autor presenta pruebas neurofisiológicas en favor de un proceso de decisión en el cerebro humano, en el que los circuitos neuronales realizan elecciones ponderando opciones y asignando valores a cada una de ellas. Cabe señalar que si bien toda esta evidencia apunta en favor de un razonamiento en la toma de decisiones, éste puede ser de índole deductivo o inductivo según sean las circunstancias a las que se enfrenta el individuo.

a) Módulo de preferencias. Las preferencias se codifican en la mente humana tanto por la vía genética como por la cultural. Las predisposiciones genéticas hacen que los individuos guíen su comportamiento a partir de la satisfacción de necesidades básicas asociadas a los problemas de supervivencia y reproducción (Corning, 2005), que Sen (1985) identifica como “capacidades para funcionar”. Ahora bien, cabe resaltar la diferencia que hay entre una necesidad básica, que es un requisito funcional (sexo, agua fresca) que debe ser cubierto de una manera u otra por el individuo y la sociedad a la que pertenece, y un deseo o mecanismo psicobiológico de motivación (por ejemplo, sexualidad, consumo de bebidas). Por ello las preferencias del individuo se integran por dos valores: los primarios asociados a las necesidades básicas universales y los secundarios vinculados a la cultura de una sociedad.

De acuerdo con Ben-Ner y Putterman (1999), las preferencias también se pueden clasificar atendiendo al destinatario de las acciones realizadas y a la pertinencia adjudicada a la forma o fondo de las mismas, por lo que se hace referencia a tres categorías: el interés en el propio beneficio material (ego), el interés en la situación de otros (alter) y el interés en comportamientos específicos. Las preferencias vinculadas a otros agentes se manifiestan por medio del altruismo entre la parentela, el altruismo entre ajenos y la reciprocidad en el proceso de decisión. Las preferencias vinculadas a los comportamientos se relacionan con el hecho de que los individuos obtienen bienestar no sólo de los resultados y el consumo, sino también de la manera en que se llega a dichos resultados. Estas preferencias reflejan la importancia de la posición social de los individuos con respecto a los demás (status) y el interés por desempeñar diferentes papeles en la sociedad (Klüver, 2002).

En años recientes se ha acumulado una gran cantidad de pruebas de las preferencias heterogéneas de los individuos y sus actitudes prosociales (Fehr y Schmidt, 2003). En particular, diversos estudios de economía experimental han encontrado que las preferencias con reciprocidad fuerte resultan críticas para explicar el comportamiento humano (Gintis et al, 2005a; Henrich et al, 2004). De acuerdo con Gintis y sus colegas (2005b), p. 8, la reciprocidad fuerte se define como “una predisposición a cooperar con otros y a castigar (a un costo personal si es necesario) a los que violan las normas de cooperación, aun cuando es imposible esperar que estos costos serán recuperados en una fecha futura”. Aunque la existencia de preferencias heterogéneas y reciprocidad fuerte en una población de seres humanos es un hecho universal que se vincula con la influencia del CAS psicobiológico (Rilling et al, 2002), la pertinencia de estos dos factores en el comportamiento de cada población está más bien asociada al CAS sociocultural.

b) Módulo de capacidades cognitivas. En la ETHA este módulo se define a partir de la premisa de que el sistema cognitivo es racionalmente acotado, en tanto que las inferencias y decisiones del individuo se realizan con restricciones de tiempo, conocimiento y capacidades computacionales (Gigerenzer, 2002). En la bibliografía existen muchas definiciones del concepto de racionalidad acotada; por ejemplo, Simon (1955, 1957), quien acuñó el término, sostiene que la toma de decisiones es un proceso de búsqueda de opciones (escuela, vivienda, socios, proyectos, pareja) con el objetivo de alcanzar una aspiración (ganancias, participación de mercado). En una reformulación de este concepto, el término se asocia más bien al uso de una “caja de herramientas de heurísticas adaptables” en el que la búsqueda se hace mediante señales o criterios para seleccionar opciones específicas (Gigerenzer, 2002; Todd, 2002). Esta caja de herramientas se compone de una colección de reglas sobre tareas específicas que son rápidas (fáciles de calcular), frugales (basadas en información limitada) y cuya racionalidad está más vinculada a su adaptación al entorno que a un criterio de congruencia o coherencia.

El concepto de racionalidad acotada de la ETHA considera que las heurísticas frugales y las estratégicas son críticas en la toma de decisiones en tanto que le dan forma a las capacidades inductivas y deductivas del ser humano, respectivamente. La mente humana hace uso del comportamiento estratégico cuando anticipa las reacciones y consecuencias de sus decisiones, pero también actúa en términos de comportamientos aprendidos, instintos y reglas preconcebidas (hábitos) para resolver los problemas cotidianos cuando el contexto lo amerita. Estudios de psicología evolutiva y de las ciencias cognitivas muestran que los individuos usan reglas de bolsillo cuando se enfrentan a problemas familiares, por lo que no intentan encontrar soluciones analíticas en todas las situaciones (Vanberg, 1994; Todd, 2002; Boyd y Richerson, 2002). Asimismo, Conslik (1980) explica cómo los optimadores (que toman decisiones analíticamente) y los imitadores (que deciden frugalmente) pueden coexistir, por lo que una caja de herramientas que combina heurísticas frugales y estratégicas ofrece una mejor descripción de la realidad.

En este sentido, la ETHA coincide con el enfoque paradigmático de Choi (1993), quien sostiene que las decisiones y los juicios se componen de elecciones lógicas y percepciones de las situaciones que enfrenta el individuo. Debido a la incertidumbre propia de la vida misma, los individuos tienen que crear paradigmas o percepciones que les ayuden a identificar situaciones específicas y así poder emprender ciertas acciones. El uso de paradigmas por parte de los individuos en un contexto de intercambios económicos y sociales continuos produce convenciones y heurísticas sociales de cómo opera el mundo (North, 2005). Es decir, las decisiones son con frecuencia producidas mediante analogías derivadas de un proceso de encuadramiento de patrones, como lo señala la teoría de sesgos cognitivos de Kahneman, Slovic y Tversky (1982). Cuando las analogías no son evidentes y las explicaciones “científicas” están ausentes, los individuos tienen la propensión a crear teorías y paradigmas (dogmas) de acuerdo con sus normas sociales, hábitos, ideologías y creencias.

c) Módulo de restricciones normativas-emotivas. En la ETHA se destaca el acotamiento de la racionalidad impuesta por restricciones normativas. Estas restricciones incluyen instituciones formales (leyes, reglamentos, códigos legales, constituciones) e instituciones informales (normas sociales). Estas últimas instituciones tienen relación con valores morales (por ejemplo, honestidad) y hábitos sociales que inciden en el comportamiento del individuo al rechazar ciertas estrategias, independientemente de los beneficios económicos que puedan representar. Por otra parte, estudios neurofisiológicos muestran que hay circunstancias en las que las decisiones racionales no se llegan a instrumentar cuando algunas emociones no están presentes, incluso en casos en que el individuo está calificado para resolver un problema en papel y lápiz (Damasio, 1994). Las emociones no siempre obstaculizan las decisiones lógicas; por lo contrario, las emociones pueden ayudar a evaluar una determinada situación y facilitar la rápida instrumentación de las acciones (Erev et al, 2002).

Las emociones son muy importantes para la existencia de los intercambios económicos y sociales. Los contratos y compromisos son más creíbles y la reputación es más relevante cuando los individuos se sienten culpables al actuar oportunistamente, cuando están avergonzados si se les encuentra haciendo trampa, cuando se enojan al ser traicionados, cuando muestran una sed de venganza que los lleva a castigar conductas consideradas inapropiadas y cuando los oportunistas potenciales se muestran temerosos ante la amenaza de sanciones (Frank 1988; Erev et al, 2002; Fessler, 2002; Kahan, 2005). Aunque las emociones son atributos compartidos por la humanidad (Tooby y Cosmides, 1990), su relevancia también depende del contexto sociocultural subyacente. Por esta razón, el sentido de culpa no logra aflorar en la mayoría de la población a pesar de que se violen compromisos establecidos si es que prevalece una cultura generalizada de corrupción en la comunidad.

d) Módulo de interacción social. Los individuos logran coordinar sus acciones y su comportamiento se hace más predecible cuando existen convenciones (prácticas sociales recurrentes que se autovalidan). Siguiendo a Young (1996), las convenciones surgen cuando existe un proceso de aprendizaje en el que los individuos adquieren experiencia e información al interactuar con otros. De acuerdo con Schelling (1960) es posible resolver problemas de coordinación aun cuando los canales de comunicación no hayan sido abiertos para estos fines. Esto ocurre cuando existen puntos focales o elementos distintivos en ciertos tipos de acciones. La probabilidad de observar estos puntos focales se incrementa cuando los individuos tienen una cultura y experiencias comunes.

La formación de convenciones (paradigmas sociales) es necesaria para que los individuos puedan tomar decisiones en un entorno con incertidumbre. El uso del razonamiento lógico (congruencia, coherencia y heurísticas estratégicas) en el comportamiento humano sólo es viable cuando la visión del mundo se encuadra en un paradigma específico. En este sentido Choi apunta que las decisiones y las acciones no llegan a materializarse sin un paradigma formado a partir de experiencias pasadas. Dichas convenciones no se crean de manera explícita, sino más bien son producto de la interacción social y se sostienen en la comunidad en la medida en que los patrones emergentes son congruentes con las expectativas formadas a partir del paradigma correspondiente. Aunque las convenciones puedan ser desplazadas, éstas tienden a exhibir un alto grado de inercia. Su estabilidad no sólo depende de la cantidad de individuos que las sigan, sino también de la molestia que les genera a cada uno de ellos el tomar acciones cuyas consecuencias no sean predecibles.

3. La influencia de los elementos culturales en los módulos de comportamiento

Por medio de los cuatro módulos referidos líneas arriba los patrones culturales, representados por normas sociales, creencias y demás elementos emergentes del CAS sociocultural, inciden en el comportamiento de individuos insertados en comunidades específicas. Sin embargo, para identificar qué módulos en concreto son afectados por los diferentes elementos culturales es necesario clarificar el significado de cada uno de estos términos. Una norma social es una regla de comportamiento compartida por todos los actores comprendidos en una relación social y cuya existencia no intencionada proviene de la necesidad de evitar conflictos y mejorar los mecanismos de coordinación (Hechter y Opp, 2001; Knight, 1992; Basu, 2000; Mantzavinos, 2001). A pesar de ser reglas, estas normas al igual que otras instituciones pueden ser consideradas como un resultado de equilibrio ya que nacen de la interacción de los propios actores y son, en gran medida, compatibles con sus incentivos (Aoki, 2001).

Una creencia, en cambio, es una percepción de la “realidad” que los individuos construyen para entender las vicisitudes de los entornos físicos y socioeconómicos, y así esclarecer el proceso de toma de decisiones. Tanto para North como para Choi las dificultades que enfrentan los individuos para lidiar con la incertidumbre los lleva a fabricar un sistema de creencias que se generalizan de manera inconsciente en la sociedad por medio de la interacción social, sin excluir con ello la posibilidad de que determinados sectores sociales manifiesten creencias muy diversas.

En términos del aparato analítico de la ETHA las diferencias entre estos dos conceptos son más explícitas cuando se precisa en qué módulos de toma de decisiones ejercen su influencia. Las normas sociales propician determinadas acciones cuando se han internalizado en el sistema de valores del individuo (módulo de preferencias), o cuando los individuos se autolimitan a actuar de cierta manera, dado que las normas se convierten en preceptos morales (módulo de restricciones). En contraste, el sistema de creencias es un insumo que hace posible la toma de decisiones al crear un entramado de paradigmas sociales, ya sea porque las convenciones que seleccionan equilibrios ayudan a coordinar acciones (módulo de interacción social) o porque la formación de ideologías ayuda a explicar cómo opera el mundo y, con ello, es posible desarrollar modelos cognitivos de decisión (módulo de capacidades cognitivas).

4. El grado de reduccionismo y la relevancia relativa de la agencia y la estructura

Los argumentos narrativos comúnmente encontrados en sociología, historia y ciencia política suelen presentar un reduccionismo débil, en tanto que su análisis considera un sinnúmero de variables con el objetivo de no desfigurar la realidad. De igual manera la operacionalidad de los conceptos es de tipo débil, ya que el significado de éstos no es lo suficientemente acotado como para establecer relaciones causales precisas, lo que dificulta la validación empírica de las hipótesis a partir de métodos estadísticos. En contraste, en la economía neoclásica tanto el reduccionismo como la operacionalidad son de tipo fuerte. Esto es así ya que la explicación de los fenómenos agregados se realiza a partir del comportamiento de individuos atomizados con conductas racionales y preferencias exógenas, supuestos que son muy lejanos a la realidad observada; mientras que el uso de las matemáticas y los procesos deductivos para describir relaciones causales hacen imprescindible que las variables en estudio sean definidas con precisión.

En el enfoque metodológico de la ETHA la operacionalidad de los conceptos es también de tipo fuerte en la medida que se apoya en instrumentos matemáticos y algorítmicos para elaborar hipótesis a partir de la identificación de patrones en datos generados con simulaciones. Sin embargo, su reduccionismo es atenuado, ya que, por un lado, la realidad de los supuestos es una parte relevante de su enfoque y, por otro, la sencillez del modelo y la simplicidad de las reglas de comportamiento resultan ser críticas para entender el fenómeno en consideración. Por tanto, la descripción pormenorizada en la ETHA de los distintos módulos de toma de decisiones no pretende establecer requerimientos mínimos con los que modelar el comportamiento individual; más bien su objetivo es plantear que existe evidencia empírica sólida para fundamentar teorías en las que los agentes socioeconómicos siguen reglas heurísticas, o bien que sus preferencias son condicionadas por determinadas creencias o normas sociales. De esta manera, en algunos modelos es más conveniente simplificar el módulo de preferencias y ser precisos en los mecanismos de aprendizaje, mientras que en otros conviene ser más cuidadosos en la elaboración del módulo de interacción social.

Obviamente, el uso de un modelo u otro está vinculado a la naturaleza del fenómeno por estudiar y a la calidad de la información disponible. Por esta razón es que en la ETHA es común encontrar modelos en los que la estructura tiene un papel protagónico, a diferencia de lo que sucede en el planteamiento neoclásico, en el que la agencia y las restricciones de equilibrio son los únicos elementos relevantes del modelo. Por ejemplo, si el investigador estudia el número de fatalidades que pueden producirse al incendiarse un auditorio tiene más sentido utilizar un modelo en el que la estructura es más relevante que la agencia. En este panorama no tiene caso modelar el comportamiento estratégico de individuos que eligen entre dar codazos para abrirse paso o infiltrarse entre personas poco robustas, o bien considerar si su interés es salvar la vida propia o la de los demás. Resulta indudable que el modelo describirá mejor la realidad cuando plantea reglas sencillas de comportamiento individual y destaca la mecánica de la interacción, en la que se detallan la densidad de agentes en el espacio, los obstáculos que se presentan, la velocidad de propagación del fuego, la dirección de las corrientes, el número y la amplitud de las salidas, entre otras variables asociadas a la estructura.

En este mismo sentido Gode y Sunder (1993), en su estudio con agentes computacionales que comercian mediante el mecanismo de subastas dobles, muestran que la modelación de la estructura institucional es suficiente para explicar el desempeño económico de comerciantes humanos. Para aislar los efectos que en el desempeño agregado tienen la agencia (motivaciones, racionalidad, aprendizaje) y la estructura (reglas para realizar transacciones y restricciones presupuestales), estos autores realizan experimentos con tres grupos de agentes: comerciantes humanos (H), comerciantes de inteligencia cero con restricciones presupuestales (ZI-C) y comerciantes de inteligencia cero sin restricciones (ZI-U). El objetivo de estos tres conjuntos de experimentos es analizar el desempeño agregado en cuanto a la obtención de precios de equilibrio y a la eficiencia del mercado en la reasignación agregada (beneficios obtenidos por todos los oferentes y demandantes en comparación con los excedentes del productor y del consumidor).

Un agente computacional con inteligencia cero y restricción presupuestal es aquel que simplemente elige su precio de compra o de venta de manera aleatoria, siendo su única limitante el que dicho valor esté por encima del costo cuando se trata de oferentes y por debajo de su apreciación subjetiva cuando se trata de demandantes. De esta manera, las diferencias observadas en el comportamiento agregado de los experimentos con ZI-C y los experimen tos con H es imputable a la racionalidad y el aprendizaje de estos últimos; mientras que la diferencia de los experimentos entre ZI-C y entre ZI-U se puede adjudicar a la estructura ya que en ambas circunstancias la racionalidad y el aprendizaje están ausentes.

Los resultados señalan que efectivamente hay un aprendizaje cuando se trata de experimentos con H, ya que los sujetos después de un tiempo relativamente corto logran determinar el precio de equilibrio en las subastas dobles en las que las órdenes de compra y venta se establecen de manera multilateral. Los precios son sumamente volátiles cuando se trata de ZI-U, pero la convergencia al equilibrio se alcanza cuando se trata de ZI-C. Esto último no es resultado del aprendizaje sino de que conforme el tiempo transcurre se estrecha el rango factible de los precios con que se ejecutan las transacciones, ya que los excedentes asociados a las unidades marginales son más reducidos. En cuanto a la eficiencia agregada se encuentra que los valores observados con ZI-C son muy similares a los encontrados en el contexto de comerciantes H pero no así para el caso de los ZI-U, por lo que la eficiencia alcanzada en este tipo de mercados es atribuible de nueva cuenta a la estructura. No obstante, cabe señalar que en estos experimentos la distribución de los beneficios sí es imputable a las motivaciones humanas y al aprendizaje.

Estudios posteriores muestran que el desempeño similar de los ZI y los sujetos humanos es resultado de determinados elementos estructurales del mercado descrito por Gode y Saunder, como lo son las elasticidades de las curvas de demanda y oferta (véase las referencias presentadas en Duffy, 2006). De cualquier manera, el argumento esencial del artículo seminal de estos autores aún es válido, por lo que las capacidades cognitivas de los individuos pueden llegar a ser factores de segundo orden en el desempeño de mercados que se desenvuelven en ciertos entornos. En particular, Duffy sugiere que la modelación mediante actores con capacidades cercanas a los ZI es adecuada cuando se trata de mercados multilaterales y competitivos, pero dicho enfoque no es apropiado cuando el comportamiento estratégico y la formación de expectativas son importantes; en este tipo de entorno resulta más conveniente modelar los procesos de aprendizaje de manera pormenorizada.

IV. El dilema agencia-estructura

En la ETHA el dilema agencia-estructura (Vromen, 2001) se aborda con módulos de toma de decisiones condicionados por factores socioculturales que, a su vez, son el legado histórico de transacciones recurrentes realizadas en los CAS superficiales (arenas económica, política y social). Por tanto, el coevolucionismo metodológico de la ETHA genera procesos sincrónicos y diacrónicos entre los distintos CAS que dan pauta a cambios continuos en la agencia y en la estructura aunque con diferentes tiempos (Aoki, 2001). Los CAS anidados del comportamiento humano y su naturaleza evolutiva explican por qué el fenómeno de causalidad acumulada es endémico a los sistemas socioeconómicos, y por qué el desempeño de los individuos, grupos sociales, organizaciones e instituciones está inexorablemente vinculado a su pasado.

1. El gobierno social de una comunidad

Para modelar el proceso de inserción social en la ETHA se hace referencia al concepto de “gobierno social” (social governance), el cual se asocia a la estructura o CAS sociocultural de una comunidad. Atendiendo a la sugerencia de Emiebayer y Goodwin (1994), el gobierno social se define en términos de un conjunto de activos relaciona les, aunque también se considera que el contenido de los mismos y la configuración de la red de interacción son relevantes para el análisis. Es decir, el gobierno social de una sociedad es el conjunto de mecanismos (relaciones sociales y jerárquicas, normas sociales, creencias e ideologías) que condicionan el comportamiento de los individuos en tanto que éstos son miembros de una comunidad o red social (Bowles y Gintis, 2000b, y Durlauf, 1999).

El gobierno social de una comunidad, como todo sistema adaptable complejo, está compuesto de un entorno de adaptación, un algoritmo evolutivo y los patrones emergentes correspondientes. El entorno de adaptación en este caso se refiere al conjunto de “elementos relacionales”, mientras que los patrones emergentes tienen relación con un conjunto de “elementos culturales” básicos o valores fundamentales. El primer grupo de elementos define la topología con la que los individuos de una comunidad se interrelacionan entre sí, ya sea por medio de vínculos verticales (jerárquicos) u horizontales establecidos entre los miembros de una red social o bien entre las redes de una sociedad. El segundo grupo de elementos se asocia a las creencias, ideologías y normas sociales que, al emerger de la interacción social, dan forma al sistema de valores y percepciones de la comunidad que condiciona las motivaciones personales, las restricciones y los mecanismos cognitivos que permiten elegir acciones.

Entre los “elementos relacionales” de la topología del CAS sociocultural se encuentran los siguientes: i) la civilidad que se vincula con las relaciones interpersonales mínimas que contribuyen a eliminar la anarquía y hacen posible la operación de la sociedad; este orden social básico depende del grado de segmentación de las redes sociales y de la centralización del poder en la estructura social (Pye, 2001); ii) la sociedad ci vil que promueve la formación de grupos con la capacidad de proponer y defender causas comunes ante las élites; este elemento se representa en la topología por medio de “puentes verticales” entre los miembros del bloque de poder y los estratos medio y bajos de la pirámide social (Burt, 2005); iii) la cohesión social que está asociada a los conceptos de confianza social, solidaridad, sentido de reciprocidad y grado de parroquianismo (Bowles y Gintis, 2003); se dice que la cohesión es estrecha cuando los cliques son densos y existen muy pocos vínculos con otras redes sociales, en contraste se considera una cohesión extensa cuando las redes sociales se conectan entre sí mediante lazos débiles (Granovetter, 1973); iv) la negociabilidad social que está presente cuando existe transparencia (fluye la información) y hay contrapesos (opciones de salida) en el entorno sociocultural; esta circunstancia es posible en la medida en que existen “puentes horizontales” que conectan a los miembros de diferentes estratos socioeconómicos o redes; v) la plasticidad social que se refiere a la movilidad de los individuos entre diferentes estratos de la pirámide social y a la aceptación de inmigrantes en la comunidad.

Entre los elementos culturales del gobierno social o sistema de valores se encuentran los siguientes: i) el status o papeles sociales que condicionan las acciones de los individuos y que les permiten diferenciarse de otros miembros de la comunidad (Klüver, 2002); el status como criterio de éxito se puede definir de manera meritocrática (depende del esfuerzo y la sagacidad), aristocrática (depende del parentesco y el bagaje social) o patrimonialista (depende de la riqueza y las posesiones materiales); ii) el sentido de identidad que le confiere al individuo un sentimiento de pertenencia a un grupo social, sensación que contribuye a definir el grado de cercanía social que se requiere para ofrecer apoyo incondicional y evaluar la equidad de una acción que afecta los intereses de otros individuos (Landa, 1994); iii) el destino que condiciona el comportamiento del individuo en función de una cosmogonía socialmente inducida, es decir, de un conjunto de ideologías y creencias relacionadas con lo sobrenatural y el papel que la persona desempeña en la vida (Platteau, 2000); iv) las valuaciones personales que establecen la importancia relativa de las motivaciones egoístas y prosociales de la persona; así, una comunidad se considera “individualista” cuando sus miembros están más inclinados a sus intereses individuales (ego), mientras que se considera “colectivista” cuando ponderan con mayor intensidad el bienestar colectivo (alter) (Hofstede, 1980; Triandis, 1995), ya sea por la presencia de una influencia paternalista o por tener una perspectiva igualitaria en la que la mayoría de los actores tienen voz y voto.

2. CAS superficiales e instituciones

La herencia histórica de una sociedad condiciona, por medio de su gobierno social, el comportamiento de sus miembros cuando éstos interactúan en las arenas económica, política o social. En estos CAS superficiales opera un conjunto de instituciones formales y organizaciones que coordinan las transacciones o comportamientos recurrentes de los individuos. De aquí que el homo socioeconomicus elija su comportamiento a partir de preferencias y capacidades cognitivas que se forman al combinar condicionamientos provenientes de cada una de estas arenas superficiales con las creencias, normas sociales e ideologías que caracterizan el gobierno social subyacente. Los dominios superficiales se componen de una diversidad de arreglos (comportamientos y patrones emergentes) como lo son las instituciones formales, rutinas establecidas (acervo del conocimiento de dominio-específico), mecanismos de coordinación y organizaciones formales.

Las instituciones formales e informales son reglas que reducen la incertidumbre y restringen el comportamiento de las personas; sin embargo, en términos analíticos es más conveniente considerar las como “equilibrios” (Aoki, 2001, y Greif, 2006) o propiedades emergentes. De acuerdo con Greif (p. 30) un marco institucional “es un sistema de factores sociales que de manera conjunta generan una regularidad en el comportamiento. Cada componente de este sistema es social en tanto que se trata de factores no físicos, hechos por el humano, y que son exógenos a cada individuo en cuyo comportamiento incide”.

3. El concepto de cultura y la autosimilitud de los CAS

Una definición de cultura para ser analíticamente útil debe identificarse con los patrones emergentes que conforman el acervo histórico de conocimientos y dan forma al contenido de los módulos de decisión. Por tanto, resulta conveniente utilizar una definición de cultura que comprende tanto la información (creencias e ideologías) como las reglas internalizadas (normas sociales) que condicionan el comportamiento humano en los CAS superficiales y que se trasmiten por medio del aprendizaje social (Richerson y Boyd, 1992; Shennan, 2002). Durham (1991), pp. 8-9, presenta una definición que, además de ser ampliamente aceptada por los antropólogos, se ajusta en gran medida a los criterios de la ETHA. Para este autor la cultura es “un sistema de fenómenos conceptuales codificados simbólicamente que son trasmitidos social e históricamente al interior y entre poblaciones”.

En la ETHA el gobierno social o CAS sociocultural sintetiza los precedentes históricos generales de una comunidad por medio del entorno de adaptación social (elementos relacionales) y los patrones emergentes (elementos culturales) que se producen a partir de la interacción social. Ahora bien, como la actividad humana se realiza a fin de cuentas en alguna de las arenas superficiales, los mecanismos de trasmisión (propagación) y los procesos de transformación (selección) de la evolución cultural se localizan en dichas arenas. De esta manera la combinación de transacciones que ocurren con frecuencia en todas estas arenas influye en la generación de patrones emergentes culturales. En este sentido se puede visualizar al CAS sociocultural como el sistema envolvente en el que los entornos económicos, sociales y políticos dan lugar a las creencias, ideologías y normas sociales que afectan el comportamiento del individuo en lo general.

Cada arena socioeconómica se considera como un CAS en sí mismo, ya que exhibe dinámicas propias que son independientes del CAS sociocultural, aun cuando éste genera propiedades emergentes que dan forma al comportamiento del individuo y el sistema en conjunto presenta una estructura autosimilar o fractal. Por esta razón en un CAS económico es posible explicar la propagación de una cierta estrategia empresarial sin que ello incida forzosamente en las otras arenas superficiales, ni tampoco en los “elementos relacionales” del gobierno social. Sin embargo, ello no impide que los comportamientos observados en las arenas superficiales puedan ejercer con el transcurso del tiempo una influencia importante en los “elementos relacionales”, propiciando de esta manera la mecánica evolutiva del CAS sociocultural.

La conectividad de todo el sistema socioeconómico de CAS anidados no produce un comportamiento caótico. Esto se debe a que, por un lado, las propiedades emergentes (energía) que se producen en un determinado CAS son empleadas para restringir la incertidumbre (entropía) en otro de los CAS; es decir, la conectividad entre los CAS contribuye a establecer efectos compensatorios que impiden que la entropía se dispare estimulada por las frecuentes reverberaciones que se producen con la interacción de agentes al interior de cada CAS. Por otro lado, la conectividad entre los CAS, en particular entre los superficiales y el envolvente, es intermitente debido a los distintos tiempos evolutivos con los que cada uno opera.

4. Evolución en el CAS sociocultural

En el proceso de evolución sociocultural las protonormas y creencias particulares están codificadas simbólicamente en los diferentes módulos del homo socioeconomicus y, por ello, el comportamiento asociado (instituciones formales, patrones de acciones y prácticas recurrentes) está sujeto a las fuerzas de selección (imitación, contagio, imposición, adoctrinamiento, competencia en los mercados) en las arenas superficiales (Durham, 1991; Voland et al, 1997). Por tanto, cuando un comportamiento particular se generaliza en la población se dice que el material cultural hereditario subyacente (“elementos cultura les”) ha sobrevivido a las vicisitudes del entorno socioeconómico. En este sentido se puede afirmar que la evolución de tipo darwiniano es también relevante en el CAS sociocultural.

Hodgson y Knudsen (2006) y Hull (1982) afirman que para distinguir entre una evolución darwiniana y una lamarckiana es necesario establecer claramente la diferencia entre el concepto de genotipo (o instrucciones a ser repetidas) y el de fenotipo (comportamiento proveniente de los genotipos), así como especificar la manera en que un genotipo se logra reproducir de un individuo a otro. En el CAS sociocultural sí es posible la recodificación de instrucciones provenientes de la adaptación del comportamiento en individuos que originalmente tenían otras creencias, como se sostendría con una posición lamarckiana. No obstante, no se puede afirmar que este proceso sea estrictamente lamarckiano, ya que en dicho esquema la reproducción de las instrucciones no está acompañada de un proceso de selección, sino que más bien se produce como respuesta única a una adaptación al entorno. En consecuencia, en la ETHA el algoritmo evolutivo puede ser estrictamente darwiniano pero también presentar una mezcla de elementos darwinianos (selección de otras instrucciones) y lamarckianos (recodificación de instrucciones en el propio individuo). A falta de un mejor término para referir a este algoritmo híbrido y con el fin de evitar confusiones se habla entonces de una evolución “darwiniana plus”.

A manera de ejemplo, considérese una comunidad en la que prevalece la confianza y la creencia de que la propiedad privada es inviolable (“genotipos”). En este contexto los individuos recurrentemente dejan el automóvil con las ventanas abiertas o sin seguro (“fenotipo”) a sabiendas de que éste no será robado o vandalizado. Supóngase ahora que, por alguna razón, las fronteras de la comunidad se tornan porosas e inmigrantes con otras creencias se incorporan, por lo que los robos de vehículos empiezan a observarse con cierta regularidad (modificación en el entorno de adaptación). Ante esta perturbación en el entorno social los individuos comienzan a preocuparse por cerrar el auto y reforzar las medidas de seguridad (modificación del comportamiento). Esta nueva práctica mina con el paso del tiempo las creencias de los pobladores originales y la confianza entre ellos mismos (recodificación de instrucciones), por lo que las nuevas actitudes culturales se propagan entre la población por medio de la socialización, educación y el adoctrinamiento de la descendencia.

5. El algoritmo evolutivo en la arena económica

El algoritmo evolutivo en el CAS económico no debe ser considerado como una simple extrapolación de la evolución biológica por dos razones principales: i) los individuos tienen importantes capacidades cognitivas que no están presentes en otras especies, lo que hace que el proceso de exploración de nuevas variantes sea muy diferente, y ii) el entorno socioeconómico fue construido por el propio ser humano, por lo que el criterio de adaptación se define a partir de la herencia cultural y socioeconómica de cada sociedad.

Beinhocker (2006), cap. 13, describe los elementos distintivos de este algoritmo evolutivo. En primer lugar menciona que en el entorno económico la unidad por ser reproducida es el conjunto de módulos que forman parte de un “plan de negocios”; es decir, al igual que en biología las unidades en las que actúa la selección no son diseños o instrucciones particulares, sino bloques de construcción o esquemas (schemas). Estos módulos o rutinas describen diseños específicos de la manera en que puede operar un negocio y la naturaleza del producto; ejemplos de módulos serían los siguientes: plan de ventas, sistema de inventarios, campaña de publicidad, nicho de mercado por abordar, tipo de tecnología por utilizar, arquitectura organizacional. Por tanto, una estrategia consiste en el conjunto de módulos quedan forma a un plan de negocios, por lo que su variedad origina el espacio de diseños en los que actúan las fuerzas evolutivas.

En cuanto al criterio de selección, Beinhocker sugiere que en sociedades cuyo umbral de supervivencia ha sido claramente superado no tiene sentido hablar de un proceso de adaptación biológico. El criterio de adaptación que rige en el dominio económico depende de la herencia cultural y socioeconómica de la sociedad en consideración. Así, por ejemplo, en las sociedades en las que las estructuras sociales son excesivamente jerárquicas y el destino de los pueblos depende de un “hombre fuerte” y su camarilla (dictador, régimen despótico, oligarcas), el criterio de selección de los planes de negocio se vincula con los intereses de dicha camarilla. En contraste, un segundo criterio de selección que opera en sociedades más democráticas y abiertas es la competencia del mercado. En este panorama la rentabilidad del plan de negocios es el factor decisivo que determina el tipo de esquemas que se generalizan en las empresas de una economía. Obviamente, en toda sociedad existen elementos jerárquicos y de mercado que inciden en la selección de planes de negocios; sin embargo, estos últimos son lo que predominan en las sociedades capitalistas contemporáneas, en contraposición con lo que ocurría en las sociedades feudales y aristocráticas.

El papel que desempeña el homo socioeconomicus en este algoritmo evolutivo es trascendental, ya que la exploración de variantes del espacio de diseños se realiza por medio de apreciaciones deductivas, en las que se eligen opciones en función del conocimiento científico y criterios lógicos, las que se combinan con un proceso inductivo de detección de patrones y analogías en el que el individuo elige propuestas con base en ensayo y error. De esta manera, empresarios, directores y gerentes de mandos medios están constantemente buscando innovar y definir esquemas que lleven a la empresa a incrementar su rentabilidad y participación en el mercado. Es indudable que, en el panorama incierto de la arena económica, en la que el conocimiento científico es todavía incipiente, el elemento inductivo tiene mucho más peso en el proceso de exploración de variantes.

6. Dinámica del gobierno social y la evolución institucional

Si bien las normas sociales, las instituciones formales y el desempeño socioeconómico son considerados en la ETHA como propiedades emergentes de un proceso dinámico, en el que una multiplicidad de agentes interactúan localmente, en un momento determinado la herencia histórica de la sociedad (reflejado en el gobierno social) es el factor condicionante de las decisiones tomadas por sus miembros en las arenas superficiales. Por ello, una ruptura institucional extensiva, entendida como un reacomodo en la coevolución de las variables del entorno socioeconómico, es más factible cuando se modifica el sustrato sociocultural. Por otra parte, la presencia de un proceso coevolutivo no quiere decir que deba existir una relación uno a uno entre el gobierno social y las instituciones formales que hacen posibles las transacciones en las arenas superficiales, sino que sencillamente existe una compatibilidad en los patrones emergentes al interior de cada arena y entre ellas.

El diagrama 1 muestra esquemáticamente como en cada periodo existe una relación sincrónica entre las diferentes arenas superficiales (flechas gruesas) debido a la inserción social de la toma de decisiones. Paralelamente, un proceso diacrónico tiene lugar entre las arenas superficiales y el gobierno social. Es decir, una vez que una fractura profunda rompe el status quo, se inicia una nueva ronda coevolutiva en el que transformaciones en las arenas superficiales van a la par de las modificaciones observadas en el contexto sociocultural. Dado que el gobierno social y el “conocimiento convencional” de las arenas superficiales sintetizan la herencia histórica de la sociedad, cualquier modificación en las instituciones del ámbito socioeconómico se codifica como parte de esta herencia para las futuras generaciones de la comunidad (Pouillon, 1967, p. 8, y North, 2005).

Al ser el gobierno social un CAS, éste es susceptible de ser modificado a partir de la frecuente realimentación con los dominios superficiales; no obstante, esta estructura tiende a mantener por un tiempo prolongado componentes importantes de la herencia histórica. Algunas de estas propiedades emergentes remotas pudieron haber sido el resultado de elementos exógenos incorporados al sistema por el orden mundial establecido en un pasado distante (origen colonial o legal) o, quizá, provenientes de valores culturales e instituciones formales creadas como consecuencia de consideraciones geográficas (clima, dotación de factores, enfermedades propias del nicho ecológico). La relevancia de esta herencia histórica-remota, definida como factores subyacentes de coevolución (UFC por sus siglas en inglés), se representa en el diagrama resaltando que estos patrones son los factores causales últimos de los gobiernos sociales contemporáneos.

Diagrama 1 Coevolución por medio del proceso sincrónico-diacrónico 

En la bibliografía de la teoría general de sistemas y sinergética los físicos hablan de un “principio de autoconsistencia” en el que cada partícula contribuye a la generación de un campo colectivo (electromagnetismo) y éste, a su vez, incide en la manera en que se mueven las partículas, por lo que la relación cíclica entre causas y efectos puede ser mutuamente congruente haciendo que el sistema se estabilice. Weidlich (2000) afirma que este principio es también válido en el ámbito social, lo que explicaría la inercia institucional. Por ejemplo, en la arena política la democracia es el resultado de la participación activa de los agentes de una sociedad, pero una vez que este sistema se asienta en la vida comunitaria la actividad política se acentúa y con ello se fortalecen los valores democráticos. De igual manera, puede darse una incongruencia dinámica en la medida en que la libertad de expresión y la falta de candados institucionales hacen posible que accesen al poder individuos o partidos con ideologías antidemocráticas.

V. Los instrumentos operacionales de sociomática

Los modelos basados en agente (ABM), también llamados sistemas multi-agente, fueron desarrollados originalmente por expertos de cómputo en el área de inteligencia artificial distribuida (DAI) (Gilbert y Terna, 2000). Estos investigadores encontraron que la interacción entre una multiplicidad de agentes genera soluciones que difícilmente se podrían encontrar con algoritmos que operan de manera aislada. Dado que este enfoque descentralizado es congruente con la premisa básica de la teoría de la complejidad, la comunidad científica apreció con rapidez las bondades del uso de agentes de software para el estudio de sistemas adaptables complejos y, en particular, para explicar fenómenos socioeconómicos (Epstein, 2006, y Epstein y Axtell, 1996).

Si bien en la ETHA la agencia humana se describe a través del homo socioeconomicus, en la que la toma de decisiones se produce a partir de un sistema modular que combina emociones con capacidades inductivas y deductivas, la operacionalización de estos mecanismos en los agentes-objeto de un mundo artificial requiere cierta simplificación de la realidad. Dado que el objetivo principal de la construcción de sociedades artificiales no es predecir sino más bien explicar los procesos sociales, los supuestos de partida deben ser elegidos en función de su sencillez y no por su exactitud. En atención a ello, Axelrod (1997) recomienda adherirse al principio KISS (“keep it simple, stupid”) de acuerdo con el cual modelos relativamente sencillos lo gran captar la esencia del mundo real, a la vez que describen patrones emergentes complejos. Debido a que los agentes de un CAS y los mismos investigadores que lo estudian tienen carencias cognitivas, no tiene sentido incorporar supuestos demasiado elaborados que impidan entender los mecanismos sociales con los que se generan los fenómenos colectivos.

Para hacer operativas las premisas de la ETHA en un modelo computacional se requiere que los agentes de software tengan capacidad de decisión y reacción. Dada esta consideración resulta conveniente seguir el planteamiento de Wooldrige y Jennings (1995), quienes sugieren que un agente de software debe incluir los siguientes atributos: i) autonomía para tomar decisiones y realizar acciones a voluntad; ii) capacidad social para facilitar la comunicación con otros agente de software; iii) reactividad para ofrecer una respuesta ante las situaciones que se perciben en el entorno, y iv) proactividad para instrumentar una acción estimulada por sus propios incentivos y motivaciones.

En una sociedad artificial los agentes se comunican e interactúan entre sí sujetos a la estructura que impera en el entorno en que se desenvuelven. En los CAS socioeconómicos las limitaciones más importantes son de carácter sociocultural e institucional, pero sin descartar la relevancia de restricciones estrictamente físicas, tecnológicas, presupuestales, biológicas o geográficas.

En el caso del enfoque neoclásico la congruencia del modelo se garantiza cuando el analista impone exógenamente una serie de restricciones, como lo son la presencia de funciones de utilidad y producción “bien comportadas”, conductas racionales, criterios de participación o condiciones de equilibrio en el mercado. En cambio en el caso de un ABM, el objetivo es reducir al mínimo posible este tipo de restricciones exógenas y construir mundos in-silico a partir de las premisas de la ETHA calibradas con la evidencia empírica disponible. Así, por ejemplo, cuando al investigador le interesa estudiar la arena económica, la congruencia del modelo se obtiene estableciendo condicionantes provenientes del CAS subyacente y de los demás CAS superficiales.

En dichas sociedades artificiales los agentes y el entorno se describen como programas de cómputo, aunque cada uno de estos objetos tiene funciones muy distintas según el papel que desempeñan en la dualidad agencia-estructura que caracteriza al mundo real. Así, mientras que los agentes-objeto describen las capacidades cognitivas y las acciones tomadas por agentes socioeconómicos (individuos, empresas, organizaciones), los entornos-objeto representan la estructura virtual asociada al entorno socioeconómico de adaptación en el que interactúan estos agentes-objeto.

Las reglas de comportamiento de las sociedades artificiales se definen como reglas agente-entorno cuando con llevan a una determinada acción como resultado de la información presentada en alguna región del entorno (por ejemplo, moverse a una posición del espacio para consumir nutrientes). En cambio, se habla de reglas entorno-entorno cuando los estados de las células, nodos o sitios de un espacio se modifican como respuesta a las actividades recurrentes de los agentes en el entorno (el crecimiento de recursos naturales renovables o su degradación como producto de la contaminación). Asimismo, las reglas agente-agente son aquellas en las que los estados de cada uno se modifican en el proceso de interacción local (comercial, reproductiva, social o política). Finalmente, en los ABM existe un conjunto de reglas de orden superior que hacen posible el aprendizaje y la adaptación de los agentes al entorno por lo que se describen como “reglas para cambiar reglas” (Epstein y Axtell 1996).

1. Variantes de los ABM

Los autómatas celulares son una forma de ABM en la que el entorno se describe como una rejilla de células en una o dos dimensiones y cuya topología varía en función de la naturaleza de la vecindad (radio de interacción) y las condiciones de frontera del entorno (torus, círculos, cuadrículas o líneas acotadas) (Flake, 1998; Batty, 2005; Gilbert y Troitzsch, 2005). En este caso los agentes-objeto son fijos ya que se asocian a cada una de las células de la rejilla y sus reglas de transición operan sobre información proveniente de un conjunto de células vecinas que se mantiene inalterado a lo largo de toda la simulación. Lo mismo ocurre con las redes booleanas en las que lo que importa no es la posición que ocupa cada uno de los nodos en el entorno sino, más bien, el grado de conectividad que tienen los nodos entre sí (Kauffman, 1993).

Otra variante de los ABM son las gráficas o redes en las que cada nodo representa a un agente y los lazos definen los vínculos que existen entre los distintos nodos (Watts, 2003 y 2004; Barabási, 2003). En estos modelos los agentes son también fijos, pero la topología del entorno ofrece mayor flexibilidad para caracterizar estructuras socioeconómicas comúnmente observadas en la realidad. Un ejemplo de estos modelos son los llamados “mundos pequeños” en los que cada individuo forma parte de un cluster en el que tienen lugar las relaciones interpersonales cotidianas, pero a la vez existen “puentes sociales” entre clusters que hacen que todos los individuos estén relativamente conectados por medio de una secuencia de vínculos indirectos. Estas redes pueden ser igualitarias, en la medida en que cada nodo mantiene un número igual de vínculos (Watts y Strogatz, 1998), o bien tratarse de redes jerárquicas en las que un grupo reducido de individuos sostiene una gran cantidad de vínculos con otros nodos mientras que la mayoría de la población tiene relativamente pocos vínculos directos (Barabási y Albert, 1999).

En una cuarta modalidad, los ABM están conformados por agentes móviles que ven condicionada su toma de decisiones por la naturaleza del entorno cercano, pero que tienen la posibilidad de cambiar su posición en la rejilla de acuerdo con las reglas de comportamiento establecidas (Epstein y Axtell 1996; Axelrod y Tesfatsion, 2006; Macy y Willer, 2001). En esta modelación el entorno puede describir características geográficas que determinan los recursos materiales a los que se tiene acceso en cada sitio, o bien representar una estructura sociocultural en la que existe una topología que describe los “elementos relacionales” del gobierno social de una comunidad. Inclusive en modelos tan sencillos como el de Schelling (1978), en el que se siembran aleatoriamente en el espacio a individuos de distintas razas, ideologías o estratos socioeconómicos, existe una topología social definida mediante la rejilla bidimensional y la naturaleza de las vecindades. En otras palabras, un contexto o gobierno social resulta indispensable para explicar el mecanismo de interacción que hace posible que el comportamiento de agentes autónomos produzca procesos macroscópicos complejos.

En todos estos modelos las células o nodos del entorno son fijos, por lo que no incorporan la posibilidad de que las transacciones recurrentes de los agentes en las arenas superficiales puedan inducir la reconfiguración del gobierno social en que éstos se desenvuelven. En estos ABM de primera generación una de las preocupaciones centrales consiste en explicar procesos emergentes relacionados con normas prosociales (cooperación, reciprocidad) y estructuras socioeconómicas (estratificación, segregación, volatilidad en los rendimientos accionarios, aglutinamiento industrial, distribución del voto, concentración económica) (Hedström, 2005), sin explicar cómo es que los comportamientos colectivos inciden a su vez en la toma de decisiones del agente mediante modificaciones en la topología del entorno. Siguiendo la notación de Boudon (1979), los ABM de la primera generación establecen una relación causal descrita por la siguiente expresión: M = M(m[M′]), en la que el comportamiento agregado (M) es función de las decisiones de agentes autónomos (m) que, a su vez, son condicionados por la topología social heredada (M′).

Por tanto, la relación causal micro → macro sólo es posible en la medida en que existe un contexto social que determina la naturaleza de la interacción y, por ello, implícitamente se habla de una relación causal macro (M′) → micro (m) → macro (M), en la que los gobiernos o estructuras sociales (M, M′) no son forzosamente iguales. El círculo se puede cerrar en la ETHA ya que de acuerdo con esta metateoría los comportamientos colectivos (normas y estructuras sociales) son a su vez producto de comportamientos colectivos heredados. Por tanto, la siguiente generación de ABM tendrá que ocuparse de llenar esta laguna teórica y plantear la manera en que los comportamientos colectivos recurrentes inducen un cambio en la topología social y en los “elementos culturales” de una comunidad (M′ → mMm′ → ...).

Así como la relación micro-macro se simula partiendo de topologías estáticas que operacionalizan diversas formas de gobierno social (Wilhite, 2006; Axtell, 2000; Axtell y Epstein, 1999), el proceso diacrónico referido líneas arriba se puede modelar haciendo uso de una dinámica coevolutiva en la que una estructura que es fija en el corto plazo puede variar en el largo plazo. Este sería el caso de un CAS en el que una vecindad condiciona el comportamiento individual de sus integrantes, pero a la larga el comportamiento colectivo recurrente le da forma a la configuración de las vecindades; es decir, en un rango de tiempo más amplio las relaciones estructurales se modifican. Aunque este tipo de planteamientos es todavía muy incipiente, las redes dinámicas tienen el potencial para producir avances importantes en el futuro cercano (véase un ejemplo de este planteamiento en Hanaki, et al, s.f.).

2. La simulación de un ABM como una ciencia generativa

En un proceso deductivo las hipótesis se formulan a partir de consecuencias lógicas provenientes de ciertos axiomas; en contraste, cuando la hipótesis se establece detectando ciertos patrones o analogías de la evidencia empírica se habla, entonces, de una inferencia inductiva. La ventaja de los planteamientos deductivos en el desarrollo de la ciencia reside en la posibilidad de probar teoremas y así establecer condiciones generales que se cumplen cuando ciertos supuestos están presentes; en cambio, el razonamiento inductivo permite formular hipótesis concretas, aun cuando no se tiene un planteamiento teórico preciso.

Según las premisas de la ETHA resulta muy difícil, si no es que imposible, establecer un modelo matemático de ecuaciones no lineales que produzca soluciones analíticas de los procesos dinámicos. En estas circunstancias la única opción disponible es la simulación (con agentes o numérica); es decir, la formulación y verificación de hipótesis requiere simular la actividad que se desarrolla en sociedades artificiales construidas a partir de los ABM o en entornos caracterizados por HAM. Por esta razón se afirma que la simulación es una tercera vía para hacer ciencia, metodología que la comunidad científica no tenía anteriormente a su disposición debido a las grandes limitaciones que prevalecían en la capacidad de cómputo.

De acuerdo con Axelrod (1997), la simulación comparte con el análisis deductivo la posibilidad de derivar consecuencias mediante corridas en las que el observador especifica con antelación el valor de ciertos parámetros; sin embargo, a diferencia del análisis deductivo, no se establecen condiciones generales a partir de los supuestos del modelo. Asimismo, la simulación comparte con la inducción la posibilidad de detectar patrones a partir de los datos artificiales que se generan con las corridas y, de esta manera, verificar si existe una concordancia con la evidencia empírica. Obviamente, las características estocásticas de algunas simulaciones o el “sembrado” inicial de agentes en el entorno hacen que sea imprescindible realizar varias corridas para garantizar que los patrones detectados no sean un simple producto de factores aleatorios o espurios.

Aunque las posiciones críticas sobre los ABM afirman que los modelos computacionales sólo son capaces de producir ejemplos, a diferencia del análisis económico tradicional en el que sí es posible probar teoremas, no queda claro que la diferencia entre “ejemplos” y “teoremas” sea siempre considerable (Judd, 2006). En los planteamientos ortodoxos el investigador tiene que especificar una serie de supuestos con el sencillo objetivo de que el modelo sea analíticamente manejable y, de esta manera, estar en posibilidad de probar teoremas. Ejemplo de ello son los supuestos del ordenamiento en las preferencias del consumidor y los rendimientos decrecientes que se tienen que adoptar para probar la existencia de un vector de precios en un modelo de equilibrio general. En contraste, los modelos computacionales no se prestan para hacer generalizaciones, ya que sólo se puede analizar un número finito de combinaciones de parámetros, pero suelen ser mucho más flexibles para caracterizar la evidencia empírica. Por esta razón, Judd sostiene que la relevancia y lo sólido de los ejemplos derivados de un ABM son en ocasiones mucho más importantes que la “generalidad” ofrecida por los teoremas del análisis tradicional.

Si bien en la economía tradicional los fenómenos por explicar se definen como equilibrios cuya existencia se prueba a partir de un proceso deductivo, la naturaleza algorítmica de los ABM hace que la explicación de un fenómeno socioeconómico provenga de la posibilidad de simularlo por medio de un proceso de interacción entre agentes. Por esta razón Epstein y Axtell indican que la construcción de sociedades in-silico para responder a la pregunta ¿puedes explicarlo?, en realidad equivale a preguntar ¿puedes crecerlo? Así, con la perspectiva de los modelos computacionales solamente se puede hablar de “teoremas de suficiencia”, en la medida en que el explanandum se puede deducir de las condiciones iniciales de la corrida y de la aplicación mecánica de las funciones recursivas detrás de la sociedad artificial en consideración. Con base en estos argumentos Epstein y otros autores hablan del “crecimiento” de sociedades artificiales como una manera generativa de hacer ciencia en el ámbito socioeconómico.

3. Los modelos no lineales con agentes heterogéneos

Los ABM no están conformados por un sistema de ecuaciones sino por agentes computacionales que presentan datos y métodos. De tal manera que los agentes-objetos al ser “sembrados” e interactuar en una determinada topología social, compuesta por agentes-entorno, “hacen crecer” los patrones emergentes de una sociedad artificial. Por tanto, los ABM ofrecen gran flexibilidad para modelar entornos socioeconómicos con agentes heterogéneos y para estudiar una diversidad de procesos de aprendizaje y topologías de interacción social. Sin embargo, la sociomática también hace uso de sistemas dinámicos de ecuaciones no lineales, cuya solución e inferencias se obtienen con el apoyo de la computadora, en este caso por medio de simulaciones numéricas. Estos modelos matemáticos con agentes heterogéneos (HAM) tienen limitaciones para incorporar ciertos elementos de la realidad que podrían ser relevantes para el estudio del fenómeno en consideración, como lo sería la descripción de un gobierno social muy preciso; no obstante, su parsimonia tiene la virtud de clarificar relaciones causa-efecto y de ofrecer soluciones analíticas al menos en situaciones de equilibrio o estacionarias.

La heterogeneidad de los agentes es un componente muy importante de la ETHA, ya sea mediante sus dotaciones, preferencias, actitudes o la formación de sus expectativas. A partir del artículo de Baja y Goldman (1980) se ha elaborado una gran variedad de modelos en los que los agentes se diferencian en función de sus expectativas y la formulación de estrategias de inversión en activos financieros. Hommes (2006) presenta una revisión de la bibliografía de los HAM vinculada principalmente a la determinación de precios de acciones y tipos de cambio. Con base en pruebas obtenidas por Frankel y Froot (1987) y otras fuentes respecto a la manera en la que los agentes financieros formulan sus expectativas, estos modelos suelen considerar dos tipos de estrategias de inversión: i) los fundamentalistas que consideran que los precios de los activos no se pueden desviar mucho de sus valores fundamentales, y ii) los analistas técnicos o extrapoladores que siguen tendencias e implementan criterios adaptativos al intentar anticipar el comportamiento de dichos precios.

La no linealidad de los HAM se debe en gran medida a que la participación relativa de los distintos agentes en un mercado o comunidad se mueve a lo largo del tiempo. Es decir, los fenómenos por explicar son no lineales ya que existe una coevolución entre dicha participación (o configuración social) y los comportamientos agregados (precios, rentabilidad de inversiones). El ciclo macro-micro-macro propio de la ETHA, en el que la estructura condiciona el comportamiento y éste produce resultados macroscópicos que afectan de nuevo a la estructura, se suele presentar en los HAM por medio de dos mecanismos. Por un lado están los modelos que utilizan criterios evolutivos y una función de adaptabilidad con rentabilidades relativas para definir, por medio de un proceso multinomial, qué estrategia tiene mayor probabilidad de ser elegida por los agentes (Brock y Hommes, 1997, 1998; Chiarella y Khomin, 1999; Westerhoff, 2004). De tal manera que al modificarse la configuración social también cambia la composición de la demanda o los procesos de interacción y, con ello, el precio y las ganancias ex post obtenidas con las distintas estrategias, iniciando de esta manera una nueva ronda del ciclo.

Por otra parte, se encuentran los HAM estocásticos que hacen uso de metodologías matemáticas desarrolladas por la sinergética para estudiar fenómenos naturales (Weidlich y Haag, 1983; Helbing 1995; Aoki, 2002; Weidlich, 2000). Estos modelos aplicados al ámbito social permiten elaborar ecuaciones macroscópicas a partir de la descripción de un proceso markoviano con el que se modela el comportamiento de los individuos. En cada periodo los individuos pueden modificar algunos de sus atributos o acciones, por lo que la agregación de decisiones da lugar a la llamada “ecuación maestra” que describe la evolución de la distribución de probabilidad de las variables macroscópicas del sistema. Si bien, por lo general, esta distribución de probabilidad no se puede desarrollar analíticamente sí es factible generar un sistema no lineal de ecuaciones diferenciales con los valores medios y varianzas de dichas variables; haciendo posible el análisis de los equilibrios de largo plazo y sus condiciones de estabilidad, así como el uso de simulaciones numéricas para la descripción dinámica de realizaciones particulares de las variables macroscópicas y de los momentos asociados a la distribución de probabilidad.

Con este tipo de HAM también se logra caracterizar las interacciones de “abajo-arriba” y de “arriba-abajo” propia de los sistemas complejos ya que la configuración social (participación de atributos o acciones presentes en la población) incide en las probabilidades markovianas con las que cada agente toma sus decisiones, dando como resultado una nueva configuración cuyos valores medios provienen de la ecuación maestra. De entre estos modelos, merecen particular atención los desarrollados por Lux (1998) y Lux y Marchesi (2000) que han sido capaces de reproducir un gran número de evidencias observadas en los mercados financieros. Entre estos fenómenos destacan los siguientes: raíces unitarias en las series de rendimientos, ausencia de autocorrelación, distribuciones con colas anchas, volatilidad en clusters. Por lo que, en contraste con la teoría de mercados eficientes, los modelos con agentes heterogéneos y racionalidad acotada sí son capaces de explicar los auges y caídas de las bolsas y los movimientos súbitos en el precio de las monedas sin que haya de por medio cambios en los fundamentos.

Finalmente, una tercera vertiente de modelos incorpora la heterogeneidad a partir de funciones de utilidad en las que las preferencias por ego y por alter son relevantes (Brock y Durlauf, 2001). En otras palabras, el bienestar del individuo depende tanto del consumo de un bien o la realización de una acción (por ejemplo, fumar) como de lo que hagan los integrantes de su comunidad o red social. Mediante la metodología de selección discreta estas funciones de utilidad dan lugar a sistemas de ecuaciones no lineales con las que caracterizar la dinámica de la participación relativa de las acciones adoptadas en la población. Dependiendo del modelo, la influencia de alter puede ser de carácter global o circunscribirse a meras interacciones locales. Una de las grandes ventajas de este planteamiento es que da pauta a modelos econométricos en los que la correlación espacial es tomada en cuenta al momento de estimar el efecto que la comunidad tiene en las decisiones individuales.

VI. Validación empírica en sociomática

Los modelos de agentes computacionales se elaboran a partir de un “realismo analítico” en el que sus supuestos no son una simple ficción sino una abstracción de la realidad, y en la que la explicación del fenómeno agregado proviene de la disección de la colectividad en agentes que tienen una vida propia aunque sus decisiones son influidas por la interacción social. En este sentido, el modelo teórico tiene que ser validado empíricamente tanto al verificar sus hipótesis como al precisar las premisas con las que se construye. La evidencia empírica, entonces, resulta importante para caracterizar factores macro o estructurales asociados al contexto de interacción (que en la ETHA se describen mediante los elementos relacionales del gobierno social) y factores microvinculados a la toma de decisiones (que en la ETHA tienen relación con normas y prácticas sociales que inciden en las preferencias y reglas de comportamiento).

De lo anterior se infiere que los requerimientos empíricos de estos modelos son muy grandes, pero por ello mismo las teorías que se elaboran a partir de este enfoque son más sólidas cuando se dispone de información cuantitativa abundante. Entre más rica es la evidencia con la que se validan las premisas del modelo es más posible que el buen ajuste de la simulación a los datos sea producto del mecanismo de interacción social descrito en el modelo. Si bien los ABM sólo son capaces de producir teoremas de suficiencia, por lo que no pueden garantizar que existe una sola manera de generar los resultados observados, el realismo de los supuestos es indudablemente un factor importante para preferir un modelo sobre otros cuyos supuestos no son empíricamente validados.

1. Verificación empírica

La falta de información detallada no significa que los ABM no sean útiles para avanzar en el conocimiento de la realidad socioeconómica; sencillamente sus alcances e inferencias se ven limitados. Axtell y Epstein (1994) indican que el desempeño del modelo mejora en la medida en que no sólo reproduce información cualitativa sino también cuantitativa, y en la medida en que no sólo describe regularidades estadísticas del agregado (macroestructura) sino que también es fidedigno en la descripción del comportamientos de los agentes (microestructura).

En un primer nivel, estos autores señalan que el modelo debe ser capaz de explicar evidencias cualitativas relacionadas con ciertos patrones macro que son identificables visualmente con los movimientos de los agentes en el entorno; este es el caso de los ABM que explican la segregación de individuos en función de atributos culturales, étnicos o económicos. En un segundo nivel, los hechos estilizados de patrones macro deben ser congruentes con variables simuladas que se describen por medio de un histograma o graficando un indicador a lo largo del tiempo; ejemplos de este tipo de patrones serían la distribución del ingreso, el cambió súbito de una determinada variable (tasas de divorcios, empleo femenino, criminalidad), o la relevancia de ciertas inercias (tecnológicas, estratégicas e institucionales).

En un tercer nivel, el modelo pasa de una evaluación cualitativa a otra cuantitativa y, por ello, debe buscar la afinidad estadística entre el patrón emergente simulado y la regularidad estadística observada. Este es el caso de la validación estadística de la ley de la potencia o cualquier otra distribución de probabilidad generada con el “crecimiento” de la sociedad artificial (Durlauf, 2005). Por ejemplo, el desempeño de un modelo de voto será satisfactorio cuando la simulación de un proceso electoral da origen a una distribución artificial del voto que sea cercana a la observada en el mundo real.

Finalmente, en el nivel más elaborado, aparte de los requerimientos anteriores, habría que validar al modelo con evidencia cuantitativa que se ajuste a la microestructura de la sociedad artificial. Por ejemplo, en un modelo de ahorro financiero no sólo se esperaría reproducir la distribución de ahorro que la población canaliza a los distintos activos financieros, sino también describir adecuadamente la manera en la que los individuos con características específicas forman sus carteras. Asimismo, la disponibilidad de una buena base de datos ayuda a calibrar los parámetros del modelo y permite determinar la probabilidad de que la interacción social induzca a los individuos a realizar cierta acción o adoptar una opinión, logrando con ello tener una representación más realista del vínculo entre la estructura y el comportamiento individual.

2. La verificación estadística de los mecanismos sociales

Partiendo del análisis de Coleman (1986) de la cadena macro-micro-macro que se requiere establecer para hablar de una relación causal entre dos fenómenos sociales, Hedström (2005) muestra cómo pueden utilizarse los ABM para realizar investigaciones empíricas que pongan a prueba los mecanismos sociales descritos con este tipo de modelos. Dado que en las ciencias sociales no se busca, por lo general, explicar el comportamiento de individuos particulares sino más bien entender el comportamiento de una colectividad, el objetivo consiste en explicar la flecha 4 del diagrama 2 en la que la estructura macro (o social) de una comunidad da lugar a un determinado fenómeno socioeconómico (la pobreza en México, las altas tasa de inflación en la América Latina de los años setenta y ochenta, el desplome económico del Reino Unido en el siglo XX, el avance tecnológico del Japón de la posguerra, la propagación del SIDA en África).

Sin embargo, el estudio directo de la relación entre factores agregados carece de sentido, ya que las unidades micro (individuos, empresas) son las que a fin de cuentas toman decisiones y, por ende, generan acciones ante diferentes circunstancias. Por ende, la única manera en que se puede entender la mecánica social es estableciendo, primeramente, un vínculo entre el contexto social en el que se desenvuelven los individuos y los módulos que inciden en la toma de decisiones (flecha 1, determinación de normas y expectativas), para luego precisar cómo las preferencias, capacidades cognitivas y restricciones producen las reglas de comportamiento que hacen posible determinadas acciones (flecha 2, reglas heurísticas). Finalmente, el círculo causal se cierra explicando la manera en que la interacción de estos comportamientos individuales se transforma en una propiedad emergente o comportamiento colectivo (flecha 3) (Hedström y Swedberg, 1998).

Diagrama 2 Relación macro-micro de los mecanismos sociales 

El análisis completo de los mecanismos sociales queda descartado en la economía neoclásica ya que la presencia de actores atomizados elimina la posibilidad de estudiar la influencia del contexto social en el comportamiento de los individuos. No obstante, autores identificados con la teoría de elección racional han buscado probar empíricamente que la interacción social incide en las acciones individuales (Durlauf y Cohen, 2004). Estos modelos econométricos de interacción social han permitido avanzar en la validación empírica de los tramos (1) y (2) del esquema de Coleman, a pesar de las dificultades técnicas que trae consigo su estimación (Brock, 1999). Hedström habla de modelos computacionales calibrados empíricamente cuando se utilizan resultados de los modelos econométricos de interacción social para describir de manera realista cómo las acciones u opiniones de los agentes son influidas por los demás miembros de su comunidad o entorno cercano.

Los avances logrados en la exploración del tercer tramo de estos mecanismos sociales han sido menos satisfactorios. En el análisis económico tradicional dicho tramo se estudia a partir de modelos macro con fundamentos microeconómicos en los que la interacción se excluye por definición y la agregación se da a partir de actores representativos. Un ejemplo de este planteamiento son los modelos del “ciclo real de los negocios”, en los que se derivan ecuaciones dinámicas a partir de conductas racionales y condiciones de equilibrio en los mercados. Diversos estudios señalan que las simulaciones de estos modelos no son capaces de reproducir la evidencia empírica a partir de datos de la economía estadunidense (Ormerod, 1998, cap. 8).

En contraste, los ABM ofrecen una mejor opción metodológica para el estudio de este tercer tramo, de aquí que su contribución sea fundamental para la sustentación de una teoría social congruente. Al construir sociedades artificiales se genera una serie de patrones emergentes con los cuales es posible hacer comparaciones con los datos observados en la realidad. En particular, las simulaciones de Monte Carlo que se realizan con los ABM permiten generar estadísticas para los momentos de las distribuciones asociadas a variables macroscópicas. No obstante, como lo señala Brock (1999), la reproducción de estos “objetos no condicionados” no debe interpretarse como una prueba sólida del fenómeno en estudio, ya que para ello la verificación también tendría que aplicarse a la dinámica estocástica que da lugar a las distribuciones estacionarias.

En otras palabras, reproducción no es sinónimo de explicación debido a que distintos modelos pueden reproducir los mismos datos agregados. De hecho cuando el modelo esta sobreparametrizado y existen muchos grados de libertad es posible generar casi cualquier resultado. De cualquier manera, y como lo apuntan Fagiolo, Windrum y Moneta (2006), cuando el conjunto de estadísticas reproducidas es relativamente grande se habrán logrando avances significativos en la explicación del fenómeno debido a que se restringe el número de procesos estocásticos capaces de generar los mismos resultados. De igual manera cuando la validación empírica se hace a nivel macro pero también micro (reglas de comportamiento, formación de expectativas) los resultados del modelo serán mucho más informativos.

Cabe también destacar que la manera en que se construyen los ABM permite analizar en un solo modelo teórico el ciclo completo de los mecanismos sociales, en el que el contexto social condiciona la agencia y las acciones de los individuos dan origen a una estructura social o comportamiento colectivo. Esta integración del proceso social hace que la teoría tenga un grado de congruencia mayor al que se podría obtener cuando el análisis se descompone en varios modelos que estudian por separado cada uno de estos tramos debido a la dificultades técnicas que trae el uso de matemáticas tradicionales.

3. Metodologías para la validación empírica de los ABM

El desafío principal de todo modelo es el de su validación empírica, situación que se complica aún más en las ciencias sociales debido a la dificultad para realizar experimentos en los cuales los efectos de determinadas variables puedan ser controlados por el investigador. Ante esta dificultad economistas keynesianos y neoclásicos han desarrollado diversas técnicas econométricas en las que la relevancia y las consecuencias de un modelo se verifican con datos históricos. El objetivo de estas técnicas es medir la magnitud del efecto (propensiones, elasticidades) que ciertas variables exógenas tienen en las variables endógenas. Por lo general estas estimaciones suponen que existe de antemano una teoría válida con la cual explicar la interrelación entre un conjunto de variables, incluso en el caso de los vectores autorregresivos de Sims (1980) en el que una teoría implícita condiciona el tipo de variables que son incorporadas en el análisis (véase Fagiolo, Windrum y Moneta, 2006).

Por lo contrario, en el caso de investigaciones empíricas con ABM el objetivo principal es poner a prueba una teoría para explicar un determinado fenómeno socioeconómico. Con este fin Fagiolo y sus colegas clasifican los enfoques de validación empírica utilizados en los ABM de la siguiente manera: i) calibración indirecta, ii) calibración a partir del método de Werker-Brenner y iii) calibración mediante casos históricos. En todos estos enfoques se busca determinar el valor de parámetros micro y macro a partir de variables observadas en el mundo real. Pero a diferencia de los modelos neoclásicos calibrados, como los del “ciclo real de los negocios”, los fundamentos micro asociados a los procesos de interacción social y la toma de decisiones también tienen que estar sustentados en evidencia empírica y experimental.

En la calibración indirecta las condiciones iniciales y el subespacio de parámetros relevantes se obtienen a partir de los valores que logran reproducir con cierta precisión los hechos estilizados del mundo real. Definidos éstos como los momentos de las distribuciones asociadas a variables macroscópicas observadas en la evidencia histórica; en otras palabras, los parámetros que se consideran empíricamente relevantes para formular acciones de política económica mediante ABM son aquellos que lo gran reproducir una serie de relaciones macroscópicas. Obviamente este criterio no es del todo sólido ya que no se apoya en pruebas adicionales para validar los parámetros asociados al comportamiento y la interacción de los agentes. En este sentido se puede decir que este enfoque es susceptible a la crítica de Lucas (1976), en tanto que no es posible afirmar que los microparámetros son invariantes ante distintas condiciones macroscópicas.

El enfoque de calibración de Werker-Brenner hace uso de la evidencia empírica y experimental disponible para calibrar algunos de los parámetros del modelo. Pero cuando no existen buenos datos para ciertos aspectos microestructurales, el modelo se plantea de la manera más abierta posible para de limitar el subespacio de parámetros apelando a inferencias bayesianas. Debido a que los datos observados en el mundo real son simplemente una realización del fenómeno socioeconómico en consideración, el subespacio de parámetros y las condiciones iniciales se eligen en función de la verosimilitud de ser aceptados dada la evidencia histórica encontrada. Este procedimiento resulta muy útil para detectar los parámetros vinculados a los mecanismos mentales de decisión que son difícilmente observables con evidencia empírica directa. Cabe destacar que inferir dichos parámetros de relaciones macroscópicas específicas hace que estas estimaciones no sean muy sólidas cuando el objetivo del ABM es analizar el efecto de variables cuyo rango está por fuera del originalmente utilizado cuando se calibró el modelo.

La tercera opción, y la más limitada en sus alcances, es la calibración mediante casos históricos por sector, industria, empresa o grupo socioeconómico. Con esta metodología tanto los mecanismos de decisión e interacción como los parámetros asociados a dichos mecanismos se obtienen a partir de información cualitativa y cuantitativa de casos específicos, por lo que la validez de estas reglas y parámetros se extrapola a grupos, sectores e industrias para los cuales no se cuenta con información muy precisa. Este método es extremadamente débil cuando no se acompaña con un análisis de sensibilidad que permita determinar en qué medida las inferencias del modelo pueden ser generalizables a otros sectores y circunstancias.

Finalmente, cabe señalar que las simulaciones, en general, son menos confiables cuando la validación no considera la posibilidad de que los procesos estocásticos del mundo que intentan reproducir no sean ergódicos y estacionarios. En un sistema no ergódico la trayectoria importa y, por ende, las condiciones iniciales son petinentes, de aquí la necesidad de determinar cuáles son las condiciones iniciales empíricamente relevantes. Por otra parte, cuando el proceso es estacionario, no importa cuál es el periodo inicial del espacio de tiempo en el que se simula el mundo artificial [t N , t N + T ], por lo que la comparación relevante con los datos del mundo real simplemente requiere que el espacio de tiempo sea equivalente (T periodos); supuesto que no se cumple cuando se trata de un escenario no estacionario.

4. Los modelos de redes estocásticas

Los ABM son elaborados con el objetivo de establecer teorías y plantear hipótesis a partir de datos generados con simulaciones. De aquí que la verificación empírica de estas hipótesis se tenga que realizar mediante instrumentos estadísticos que comparan, por ejemplo, las distribuciones de las variables observadas en el mundo real con las producidas con el “crecimiento” del mundo artificial. Una opción a este enfoque son los modelos de redes estocásticas (Snijders, 1996, 2001, 2005), en los que los datos observados son el punto de partida para estimar la manera en que la estructura de interacción se modifica a lo largo del tiempo. Estos modelos estadísticos son afines a la ETHA, en tanto que consideran que las redes sociales son producto de una estructura de interacción inicial y de las decisiones de agentes basadas en incentivos y restricciones. La gran ventaja de este enfoque es que permite verificar la relevancia de ciertas hipótesis mediante un tratamiento estadístico que vincula en un solo modelo el mecanismo social descrito en el ciclo (1)-(3).

En una primera versión de estos modelos estocásticos, los agentes representados en cada uno de los nodos de la red eligen la conveniencia de establecer o eliminar determinados lazos con otros nodos. Estos nodos y sus lazos pueden caracterizar a una amplia gama de interacciones socioeconómicas, como serían las empresas que cotizan en la bolsa de un país, los alumnos que asisten a determinada escuela, los integrantes de una organización o los miembros de una comunidad académica. El hecho de que la conformación de lazos se describa a partir de un proceso markoviano en tiempo continuo permite que los datos de la estructura observada en al menos dos puntos en el tiempo (t 0, t 1) se puedan representar como una serie de mini pasos tomados por los actores de la red. En otras palabras, el modelo plantea que, con base en una función de utilidad, cada uno de los agentes elige en un momento determinado qué lazo tender o eliminar, de tal manera que al pasar de t 0 a t 1 se llega a la nueva configuración de la red.

Esta función de utilidad también se puede concebir como una función objetivo que identifica los incentivos de un agente para modificar la naturaleza de su interacción al igual que las restricciones que la estructura inicial le impone. Asimismo, y atendiendo al criterio de racionalidad acotada, el modelo supone que las decisiones de los agentes son miopes en cuanto que sólo consideran las consecuencias de sus acciones en el corto plazo y sin consideraciones de carácter estratégico. Este término también obedece a que sólo un grupo reducido de factores estructurales de la red es puesto en el análisis de los agentes; en particular, se suele suponer que el agente carece de información que va más allá de un cierto radio, el que por lo general no sobrepasa los dos niveles (los amigos de mis amigos).

Entre las variables endógenas de la estructura que se incorporan a la función de utilidad se encuentran las siguientes: la densidad o número de lazos que parten de un mismo nodo, la reciprocidad o preferencia porque un lazo tendido en una dirección sea también establecido en la dirección opuesta, la transitividad o preferencia por establecer vínculos con los amigos de mis amigos, el equilibrio o preferencia por establecer lazos entre individuos afines, entre muchos otros efectos posibles. Además de la combinación lineal de estos efectos, la función de utilidad también incluye a las llamadas covariantes, o variables relacionadas con las características o atributos de cada agente (edad, sexo, tamaño, rentabilidad) y a las relaciones diádicas entre agentes (distancia geográfica, similitud con base en algún atributo, distancia social en una jerarquía).

El objetivo del modelo estadístico es estimar los parámetros utilizados para ponderar los efectos referidos líneas arriba. Igualmente el modelo permite estimar el tiempo que transcurre en la toma de decisiones de los agentes y así describir la velocidad con que la red se transforma en el tiempo. Con estas estimaciones se puede inferir que factores endógenos de la estructura hacen que ésta vaya evolucionando y la influencia que determinados atributos de los agentes tienen en la configuración de una red; pudiendo de esta manera verificar, por ejemplo, si el sexo de las personas es importante para establecer lazos de amistad, o si la rentabilidad de una empresa incide en la conformación de grupos económicos. Las probabilidades que se derivan del proceso de selección, y los ponderadores implicados, se estiman mediante el método de momentos en el que se utilizan simulaciones de Monte Carlo para garantizar que los efectos estructurales observados en la red sean similares a los estimados.

La versión más moderna de estos modelos estocásticos (Burk, Steglich y Snijders, 2007; Snijders, Steglich y Schweinberger, 2007; Steglich, Snijders y Pearson, 2004) permite, incluso, estimar un proceso coevolutivo entre la estructura de la red y el comportamiento o atributos de los agentes. De esta manera es posible resolver el problema estadístico de doble causalidad al aislar el efecto que tiene la estructura en los comportamientos (influencia o contagio) del tendido de ciertos lazos a partir de la presencia de ciertos atributos (selección u homofilia). En la ETHA la coevolución estructura → agencia → estructura es una posibilidad teórica en todo fenómeno socioeconómico, de aquí la relevancia de poder estimar la presencia e importancia de cada uno de estos mecanismos de causalidad. Un ejemplo de esta problemática en el ámbito sociológico es la relación entre la red y la adopción de ciertas prácticas que ponen en riesgo la salud del individuo (alcoholismo, tabaquismo). Se habla de un factor de influencia cuando la pertenencia a un grupo social incide en la adopción de alguna de estas prácticas, en tanto que se habla de un factor de selección cuando los agentes con comportamientos específicos tienen un trato más frecuente y, por ende, logran establecer vínculos con mayor facilidad.

En estos modelos coevolutivos se consideran dos tipos de variables endógenas: la estructura de la red y ciertos atributos de los individuos. En esta variante se pueden establecer relaciones de causalidad cuando se dispone de al menos tres puntos de observaciones en el tiempo. La toma de decisión es tal que un individuo elige un lazo a tender o eliminar, o bien opta por modificar poco a poco alguno de sus atributos. Con este propósito se consideran dos funciones de utilidad, una para analizar las oportunidades y restricciones que brinda la estructura de la red y otra para evaluar los costos y beneficios que ofrecen los distintos atributos. Planteamiento que se valida con estudios de psicología experimental, en la que los criterios de decisión varían en función del problema al que se enfrenta el individuo.

Conclusiones

El éxito relativo de un paradigma científico tiene relación con diversos factores: i) la existencia de una metateoría que haga explícitas las premisas con las que construir visiones teóricas de la manera de concebir el mundo; ii) el uso de instrumentos formales para operacionalizar conceptos y construir modelos de fenómenos observados; iii) la posibilidad de que el marco teórico permita formular hipótesis que sean susceptibles de ser refutadas, y iv) la difusión del paradigma por medio de libros de divulgación o de texto de uso generalizado. El objetivo de la sociomática es estructurar un programa de investigación congruente que atienda los tres primeros puntos, fortaleciendo con ello el paradigma de la socioeconomía evolutiva. Si bien el uso de modelos computacionales en el marco de la teoría de la complejidad ha crecido de manera importante en los pasados tres decenios, su desarrollo ha tenido lugar sin precisar una metateoría con la que analizar fenómenos socioeconómicos; papel que en la sociomática desempeña la teoría evolutiva de la agencia humana (ETHA).

En esta metateoría se pone particular atención a la relación agencia-estructura y a la manera en que se realiza la toma de decisiones, lo que permite dar coherencia a los modelos computacionales basados en agentes. Ahora bien, el que dicha metateoría se formule con cierto detalle no significa que los modelos específicos deben elaborarse con el mismo grado de refinación. Cada modelo debe ser elaborado en función del fenómeno por estudiar y la naturaleza de los datos disponibles, por lo que la parsimonia del modelo es recomendable para evitar la sobreparametrización; simplificación que, sin embargo, no conduce al reduccionismo en la medida en que se atiende al realismo de los supuestos y las premisas en que se sustenta la ETHA. Los avances logrados recientemente en la economía experimental y del comportamiento han contribuido de manera considerable al entendimiento de las preferencias y capacidades cognitivas que guían la conducta humana (Duffy, 2006), por lo que con una mayor evidencia empírica proveniente de estos ámbitos será posible construir una mejor metateoría y ABM con reglas de comportamiento e interacción social más realistas.

El uso de modelos computacionales basados en agentes ha recibido distintos nombres en la bibliografía socioeconómica, entre los que resaltan los siguientes: simulación social de abajo-arriba, sociedades artificiales, complejidad social, complejidad económica, economía computacional basada en agentes (ACE). Sin embargo, en este texto se ha preferido acuñar un nuevo término, ya que la sociomática plantea la integración explícita de una metateoría con el uso de métodos no lineales (algorítmicos y matemáticos), además de que su campo de interés no se circunscribe al ámbito económico, sino a las ciencias sociales en general.

En relación con el cuarto pilar de un paradigma exitoso, cabe señalar que en la actualidad existen unos cuantos libros que sin duda han contribuido notoriamente a la difusión de los ABM y la teoría de la complejidad en contextos socioeconómicos. Entre los cuales se encuentran los siguientes: Resnick (1994), Epstein y Axtell (1996), Axelrod (1997), Cederman (1997), Ormerod (1998), Batten (2000), Barabási (2003), Watts (2003), Kollman, Miller y Page (2003), Gilbert y Troitzsch (2005), Epstein (2006), Tesfatsion y Judd (2006), Beinhocker (2006), Miller y Page (2007), North y Macal (2007), Buchanan (2007) y Johnson (2007). No obstante, quedan todavía por escribirse textos didácticos de sociomática en los que se revise de manera integral los temas cubiertos en este artículo y se presenten paralelamente aplicaciones en los distintos campos de las ciencias sociales. El paradigma evolutivo podrá allegarse de más seguidores cuando al lector se le presenta una visión amplia de la sociomática, la cual va desde la teoría de la complejidad hasta la validación y aplicación de modelos, pasando por la construcción de una metateoría que le de coherencia al proceso de modelación.

Referencias bibliográficas

Aoki, M. (2001), Toward a Comparative Institutional Analysis, Massachusetts, MIT Press. [ Links ]

______ (2002), Modelling Aggregate Behavior and Fluctuations in Economics. Stochastic Views of Interacting Agents, Cambridge, Cambridge University Press. [ Links ]

Andreoni, J., y J. H. Miller (2002), “Giving According to GARP: An Experimental Test of the Consistency of Preferences for Altruism”, Econometrica, 70, páginas 737-753. [ Links ]

Archer, M. S. (1995), Realist Social Theory: The Morphogenetic Approach, Cambridge, Cambridge University Press. [ Links ]

Auyang, S. Y. (1998), Foundations of Complex-System Theories in Economics, Evolutionary Biology, and Statistical Physics, Cambridge, Cambridge University Press. [ Links ]

Axelrod, R. (1997), The Complexity of Cooperation. Agent-Based Models of Competition and Collaboration, New Jersey, Princeton University Press. [ Links ]

______, y L., Tesfatsion (2006), “A Guide for Newcomers to Agent-Based Modelling”, L. Tesfatsion y K. Judd (comps.), Handbook of Computational Economics. Agent-based Computational Economics, vol. 2, Amsterdam, North- Holland. [ Links ]

Axtell, R. L. (2000), “Effects of Interaction Topology and Activation Regime in Several Multi-Agent System”, Center on Social and Economic Dynamics, Washington, The Brooking Institution. [ Links ]

______, y J. M., Epstein (1994), “Agent-Based Modelling: Understanding our Creations”, The Bulletin of the Santa Fe Institute, invierno. [ Links ]

______, y ______ (1999), “Coordination in Transient Social Networks: An Agent-Based Computational Model of the Timing of Retirement”, H. Aaron (comp.), Behavioral Dimensions of Retirement Economics, Nueva York, Russell Sage Foundation. [ Links ]

Baja, A., y M. B. Goldman (1980), “On the Dynamic Behavior of Prices in Disequilibrium”, Journal of Finance, 35, pp. 235-248. [ Links ]

Barabási, A. L. (2003), Linked. How Everything is Connected to Everything Else and what it Means for Business, Science, and Every Day Life, Nueva York, Plume. [ Links ]

______, y R., Albert R. (1999), “Emergence of Scaling in Random Networks”, Science 286, pp 509-512. [ Links ]

Basu, K. (2000), Prelude to Political Economy. A Study of the Social and Political Foundations of Economics, Oxford, Oxford University Press. [ Links ]

Batten, D. F. (2000), Discovering Artificial Economics. How Agents Learn and Economies Evolve, Boulder Colorado, Westview Press. [ Links ]

Batty, M. (2005), Cities and Complexity. Understanding Cities with Cellular Automate, Agent-Based Models, and Fractals, Cambridge Massachusetts, The MIT Press. [ Links ]

Beinhocker, E. (2006), The Origin of Wealth. Evolution, Complexity, and the Radical Remaking of Economics, Boston, Harvard Business School Press. [ Links ]

Ben-Ner, A., y L. Putterman (1999), “Values and Institutions in Economic Analysis”, A. Ben-Ner y L. Putterman (comps.), Economics, Values, and Organizations, Cambridge, Cambridge University Press. [ Links ]

Bordieu, P. (1991), El sentido práctico, Madrid, Taurus. [ Links ]

Boudon, R. (1979), “Generating Models as a Research Strategy”, P.H. Rossi (comp.), Qualitative and Quantitative Social Research: Papers in Honor of Paul F. Lazarsfeld, Nueva York, Free Press. [ Links ]

Boyd, R., y P. J. Richerson (2002), “Norms and Bounded Rationality”, G. Gigerenzer y R. Selten (comps.), Bounded Rationality. The Adaptive Toolbox, Cambridge Massachusetts, The MIT Press. [ Links ]

Bowles, S., y H. Gintis (2000a), “Walrasian Economics in Retrospect”, Quarterly Journal of Economics, 115, pp. 1411-1439. [ Links ]

______, y ______ (2000b), “Social Capital and Community Governance,” Economic Journal, 112, pp. 419-436. [ Links ]

______, y ______ (2003), “Persistent Parochialism: Trust and Exclusion in Ethnic Networks”, Journal of Economic Behavior and Organization, 55, pp. 1-23. [ Links ]

Brock, W. (1999), “Scaling in Economics: A Reader’s Guide”; Industrial and Corporate Change, 8, pp. 409-446. [ Links ]

______, y S. N., Durlauf (2001), “Discrete Choice with Social Interactions”, Review of Economic Studies, 68, pp. 235-260. [ Links ]

______, y C. H., Hommes (1997), “A Rational Route to Randomness”, Econometrica, 65, pp. 1059-1095. [ Links ]

______, y ______ (1998), “Heterogeneous Beliefs and Routes to Chaos in a Simple Asset Pricing Model”, Journal of Economic Dynamics and Control, 22, páginas 1235-1274. [ Links ]

Buchanan, M. (2007), The Social Atom. Why the Rich Get Richer, Cheaters Get Caught, and Your Neighbor Usually Looks Like You, Nueva York, Bloomsbury. [ Links ]

Burk, W. J., C. E. G. Steglich, y T. A. B. Snijders (2007), “Beyond Dyadic Interdependence: Actor-oriented Models for Co-evolving Social Networks and Individual Behaviors”, International Journal of Behavioral Development, 31, páginas 397-404. [ Links ]

Burt, R. S. (2005), Brokerage and Closure. An Introduction to Social Capital, Oxford, Oxford University Press. [ Links ]

Buss, D. M. (1999), Evolutionary Psychology: The New Science of the Mind, Needham Heights, Allyn & Bacon. [ Links ]

Cartwright, J. (2000), Evolution and Human Behavior, Massachusetts, MIT Press. [ Links ]

Cederman, L. E. (1997), Emergent Actors in World Politics. How States & Nations Develop & Dissolve, New Jersey, Princeton University Press. [ Links ]

Chiarella, C., y P. Khomin (1999), “Adaptively Evolving Expectations in Models of Monetary Economics -The Fundamentalists Forward Looking-”, Annals of Operations Research, 89, pp. 21-34. [ Links ]

Choi, Y. B. (1993), Paradigms and Conventions. Uncertainty, Decision Making, and Entrepreneurship, Ann Arbor, The University of Michigan Press. [ Links ]

Coleman, J. S. (1986), “Social Theory, Social Research, and a Theory of Action”, American Journal of Sociology, 91, pp. 1309-1335. [ Links ]

Conlisk, J. (1980), “Costly Optimizers versus Cheap Imitators”, Journal of Economic Behavior and Organizations, 1, pp. 275-293. [ Links ]

Corning, P. A. (2005), Holistic Darwinism. Synergy, Cybernetics, and the Bioeconomics of Evolution, Chicago, The University of Chicago Press. [ Links ]

Cosmides, L., y J. Tooby (1987), “From Evolution to Behavior: Evolutionary Psychology as the Missing Link”, J. Dupré (comp.), The Latest of the Best, Cambridge, MIT Press. [ Links ]

Damasio, A. R. (1994), Descartes’ Error: Emotion, Reason and the Human Brain, Nueva York, Grosset/Putnam. [ Links ]

Dosi, G., y S. G. Winter (2000), “Interpreting Economic Change: Evolution, Structures and Games”, Laboratory of Economics and Management (LEM), Sant’Anna School of Advanced Studies, Pisa Italy, Working Paper 2000/08. [ Links ]

Dunbar, R. (1999), “Culture, Honesty and the Free-rider Problem”, R. Dunbar, C. Knight y C. Power (comps.), The Evolution of Culture, Rutgers University Press. [ Links ]

Durham, W. (1991), Co-evolution. Genes, Culture and Human Diversity, California, Stanford University Press. [ Links ]

Durlauf, S. N. (1999), “The Case “Against” Social Capital”, Department of Economics; University of Wisconsin, manuscrito (http://www.ssc.wisc.edu/econ/archive/authord.htm) [ Links ]

______ (2005), “Complexity and Empirical Economics”, The Economic Journal, 115, pp. F225-F243. [ Links ]

______, y E., Cohen-Cole (2004), “Social Interaction Models”, University of Wisconsin, manuscrito. [ Links ]

Duffy, J. (2006), “Agent-Based Models and Human Subjects Experiments”, L. Tesfatsion y K. Judd (comps.), Handbook of Computational Economics. Agent based Computational Economics, vol. 2, Amsterdam, North-Holland. [ Links ]

Emiebayer, M., y J. Goodwin (1994), “Network Analysis, Culture and the Problems of Agency”, American Journal of Sociology, 99, pp. 1411-1454. [ Links ]

Epstein, J. M. (2006), Generative Social Science. Studies in Agent-Based Computational Modelling, Princeton, Princeton University Press. [ Links ]

______, y R. L., Axtell (1996), Growing Artificial Societies. Social Sciences from the Bottom up, Washington, Brookings Institution & The MIT Press. [ Links ]

Erev, I., D. M.T. Fessler, C. K. Hemelrijk, R. Hertwig, K. N. Laland, K. R. Scherer, T. D. Seeley, R. Selten, y P. E. Tetlock (2002), “Group Report: Effects of Emotions and Social Processes on Bounded Rationality”, G. Gigerenzer y R. Selten (comps.), Bounded Rationality. The Adaptive Toolbox, Cambridge, Massachusetts, The MIT Press. [ Links ]

Fagiolo, G., P. Windrum, y A. Moneta (2006), “Empirical Validation of Agent-Based Models: A Critical Survey”; Laboratory of Economics And Management, Sant’Anna School of Advanced Studies, Pisa Italia, Working Paper 2006/14. [ Links ]

Fehr, E., y K. M. Schmidt (2003), “Theories of Fairness and Reciprocity. Evidence and Economic Applications”, M. Dewatripont, L.P. Hansen, S. Turnovski (comps.), Advances in Economic Theory, Eight World Congress of the Econometric Society, Cambridge, Cambridge University Press. [ Links ]

Fessler, D. M. T. (2002), “Emotions and Cost-benefit Assessment”, H. Gintis, S. Bowles, R. Boyd y E. Fehr (comps.), Moral Sentiments and Material Interests. The Foundations of Cooperation in Economic Life, Massachusetts, The MIT Press. [ Links ]

Flake, G. W. (1998), The Computational Beauty of Nature, Computer Explorations of Fractals, Chaos, Complex Systems, and Adaptation, Massachusetts, The MIT Press. [ Links ]

Frank, R. (1988), Passions within Reason, Nueva York, Norton. [ Links ]

Frankel, J. A., y K. A. Froot (1987), “Using Survey Data to Test Standard Propositions Regarding Exchange Rate Expectations”, American Economic Review, 77, pp. 133-153. [ Links ]

Fukuyama, Francis (1999), La gran ruptura. La naturaleza humana y la reconstrucción del orden social, Editorial Atlantida. [ Links ]

Gigerenzer, G. (2002), “The Adaptive Toolbox”, G. Gigerenzer y R. Selten (comps.), Bounded Rationality. The Adaptive Toolbox, Cambridge Massachusetts, The MIT Press. [ Links ]

Gilbert, N., y P. Terna (2000), “How to Build and Use Agent-Based Models in Social Sciences”, Mind and Society, 1, pp. 57-72. [ Links ]

______, y K. G., Troitzsch (2005), Simulation for the Social Scientist, Berkshire, Open University Press. [ Links ]

Gintis, H. (2006), “A Framework for the Integration of Behavioral Sciences”, Behavioral and Brain Sciences. [ Links ]

______, S., Bowles, R., Boyd, y E., Fehr (2005a), Moral Sentiments and Material Interests. The Foundations of Cooperation in Economic Life, Massachusetts, The MIT Press. [ Links ]

______, ______ y ______ (2005b), “Moral Sentiments and Material Interests: Origins, Evidence, and Consequences”, H. Gintis, S. Bowles, R. Boyd y E. Fehr (comps.), Moral Sentiments and Material Interests. The Foundations of Cooperation in Economic Life, Massachusetts, The MIT Press. [ Links ]

Gode, D. K., y S. Sunder (1993), “Allocative Efficiency of Markets with Zero-Intelligence Traders: Market as a Partial Substitute for Individual Rationality”, Journal of Political Economy, 101, pp. 119-137. [ Links ]

Granovetter, M. (1973), “The Strength of Weak Ties”, American Journal of Sociology, 78, pp. 1360-1380. [ Links ]

______ (1985), “Economic Action, Social Structure and Embeddedness”, American Journal of Sociology, 91, pp. 481-510. [ Links ]

Greif, A. (2006), Institutions and the Path to the Modern Economy: Lessons from Medieval Trade, Cambridge, Cambridge University Press. [ Links ]

Hanaki, N., A. Peterhansl, P. S. Dodds, y D. Watts (s. f.), “Cooperation in Evolving Social Networks”, Collective Dynamics Group, ISERP, Columbia University. [ Links ]

Hayek, F. A. (1967), “Notes on the Evolution of Systems of Rules of Conduct”, F. A Hayek, The Fatal Conceit, Londres, Routledge. [ Links ]

Hechter, M., y K. D. Opp (2001), Social Norms, Nueva York, Russell Sage Foundation. [ Links ]

Hedström, P. (2005), Dissecting the Social. On the Principles of Analytical Sociology, Cambridge, Cambridge University Press. [ Links ]

______, y R., Swedberg (1998), “Social Mechanism: An Introductory Essay”, P. Hedström y R. Swedberg (comps.), Social Mechanism: An Analytical Approach to Social Theory, Cambridge, Cambridge University Press. [ Links ]

Helbing, D. (1995), Quantitative Sociodynamics, Stochastic Methods and Models of Social Interaction Processes, Kluwer Academic Publishers. [ Links ]

Henrich, J., R. Boyd, S. Bowles, C. Camerer, E. Fehr, y H. Gintis (2004), Foundations of Human Sociality. Economic Experiments and Ethnographic Evidence from Fifteen Small-Scale Societies, Oxford, Oxford University Press. [ Links ]

______, ______, ______, ______, ______ y ______ (2005); “Economic Man in Cross-Cultural Perspective: Behavioural Experiments in 15 Small-Scale Societies”, Behavioral and Brain Sciences. [ Links ]

Hodgson, G. M. (1993), Economics and Evolution. Bringing Life Back into Economics, Ann Arbor, The University of Michigan Press. [ Links ]

______ (2001), How Economics Forgot History. The Problem of Historical Specificity in Social Sciences, Londres, Routledge. [ Links ]

______, y T., Knudsen (2006), “Dismantling Lamarckism: why Descriptions of Socioeconomic Evolution as Lamarckian are Misleading”, Journal of Evolutionary Economics, 16, pp. 343-366. [ Links ]

Hofstede, G. H. (1980), Culture’s Consequences: International Differences in Work-related Values, Thousands Oaks, Sage. [ Links ]

Holland, J. H. (1995), Hidden Order. How Adaptation Builds Complexity, Nueva York, Helix Books. [ Links ]

______ (1998), Emergence. From Chaos to Order, Nueva York, Basic Books. [ Links ]

Hommes, C. H. (2006), “Heterogenous Agent Models in Economics and Finance”, L. Tesfatsion y K. L. Judd (comps.), Handbook of Computational Economics, Agent-based Computational Economics Volume 2, Amsterdam, North-Holland. [ Links ]

Hull, D. L. (1982), “The Naked Meme”, H.C. Plotkin (comp.), Learning, Development and Culture: Essays in Evolutionary Epistemology, Nueva York, Wiley. [ Links ]

Johnson, N. (2007), Two’s Company, Three is Complexity, Oxford, Oneworld. [ Links ]

Judd, K. L. (2006), “Computationally Intensive Analysis in Economics”, L. Tesfatsion y K. L. Judd (comps.), Handbook of Computational Economics. Agent-Based Computational Economics, vol. 2. [ Links ]

Kahan, D. M. (2005), “The Logic of Reciprocity: Trust, Collective Action, and Law”, H. Gintis, S. Bowles, R. Boyd y E. Fehr (comps.), Moral Sentiments and Material Interests. The Foundations of Cooperation in Economic Life, Massachusetts, The MIT Press. [ Links ]

Kahneman, D., P. Slovic, y A. Tversky (1982), Judgment under Uncertainty: Heuristic and Biases, Cambridge, Cambridge University Press. [ Links ]

Kauffman, S. A. (1993), The Origins of Order. Self-Organization and Selection in Evolution, Oxford, Oxford University Press. [ Links ]

Klüver, J. (2002), An Essay Concerning Sociocultural Evolution. Theoretical Principles and Mathematical Models, Dordrecht, Holland, Kluwer Academic Press. [ Links ]

Knight, J. (1992), Institutions and Social Conflict, Cambridge University Press. [ Links ]

Kollman, K., J. H. Miller, y S. E. Page (2003), Computational Models in Political Economy, Massachusetts, The MIT Press. [ Links ]

Kreps, D. M. (1990), A Course in Macroeconomic Theory, Princeton, Princeton University Press. [ Links ]

Krugman, P. (1996), The Self-Organizing Economy, Massachusetts, Blackwell Publishers. [ Links ]

Landa, J. T. (1994), Trust, Ethnicity, and Identity. Beyond the New Institutional Economics of Ethnic Trading Networks, Contract Law, and Gift-Exchange, Ann Arbor, The University of Michigan Press. [ Links ]

Lucas, R. (1976), “Econometric Policy Evaluation: a Critique”, K. Brunner y A. H. Meltzer (comps.), The Phillips Curve and Labor Markets, Carnegie-Rochester Conference Series on Public Policy, vol. 1, Springer, Amsterdam, North Holland. [ Links ]

Lux, T. (1998), “The Socio-economic Dynamics of Speculative Markets: Interacting Agents, Chaos, and the Fat Tails of Return Distribution”, Journal of Economic Behavior and Organizations, 33, pp. 143-165. [ Links ]

______, y M., Marchesi (2000), “Volatility Clustering in Financial Markets: a Microsimulation of Interacting Agents”, International Journal of Theoretical and Applied Finance, 3, pp. 675-702. [ Links ]

Macy, M.W., y R. Willer (2002), “From Factors to Actors: Computational Sociology and Agent-Based Modelling”, Annual Review of Sociology, 28, pp. 143-166. [ Links ]

Mantzavinos, C. (2001), Individuals, Institutions and Markets, Cambridge, Cambridge University Press. [ Links ]

Mass-Collell, A., M. D. Whinston, y J. R. Green (1995), Microeconomic Theory, Oxford, Oxford University Press. [ Links ]

Miller, J., y S. E. Page (2007), Complex Adaptive Systems. An Introduction to Computational Models of Social Life, Princeton, Princeton University Press. [ Links ]

Nelson, R., y S. Winter (1982), An Evolutionary Theory of Economic Change, Cambridge, Belknap Press of Harvard University Press. [ Links ]

Nicolis, G., y L. Prigogine (1989), Exploring Complexity. An Introduction, Nueva York, W. H. Freeman and Company. [ Links ]

North, D. (2005), Understanding the Process of Economic Change, New Jersey, Princeton University Press. [ Links ]

North, M. J., y C. M. Macal (2007), Managing Business Complexity. Discovering Strategic Solutions with Agent-Based Modelling and Simulation, Oxford, Oxford University Press. [ Links ]

Ormerod, Paul (1998), Butterfly Economics. A New Theory of Social and Economic Behavior, Nueva York, Basic Books. [ Links ]

Platteau, J. P. (2000), Institutions, Social Norms, and Economic Development, Australia, Harwood Academic Publishers. [ Links ]

Polanyi, K. (1957), “The Economy as Instituted Process”, K. Polanyi, C. M. Arensberg y H. W. Pearson (comps.), Trade and Markets in the Early Empires, Free Press. [ Links ]

Pouillon, J. (1967), “Presentación: Un ensayo de definición”, J. Pouillon et al (comps.), Problemas del estructuralismo, México, Siglo XXI. [ Links ]

Pye, L. W. (2001), “Civility, Social Capital, and Civil Society: Three Powerful Concepts for Explaining Asia”, R. Rotberg (comp.), Patterns of Social Capital. Stability and Change in Historical Perspective, Cambridge, Cambridge University Press. [ Links ]

Resnick, M. (1994), Turtles, Termites and Traffic Jams: Explorations in Massively Parallel Microworlds, Cambridge, The MIT Press. [ Links ]

Richerson, P., y R. Boyd (1992), “Cultural Inheritance and Evolutionary Ecology”, E. A. Smith y B. Winterhalder (comps.), Evolutionary Ecology and Human Behavior, Chicago, Aldine de Gruyter. [ Links ]

Rilling, J. K., D. A. Gutman, T. R. Zeh, G. Pagnoni, G. S. Berns, y C. D. Kits (2002), “A Neural Basis for Social Cooperation”, Neuron, 35, pp. 395-405. [ Links ]

Schelling, T. (1960), The Strategy of Conflict, Harvard University Press. [ Links ]

______ (1978), Micromotives and Macrobehavior, Nueva York, W. W. Norton. [ Links ]

Sen, A.K. (1985), Commodities and Capabilities, Amsterdam, Elsevier. [ Links ]

Shennan, S. (2002), Genes, Memes and Human History. Darwinian Archaeology and Cultural Evolution, Londres, Thames and Hudson. [ Links ]

Simon, H. A (1955), “A Behavioral Model of Rational Choice”, Quarterly Journal of Economics, 69, pp. 99-118. [ Links ]

______ (1957), Models of Man, Nueva York, Wiley. [ Links ]

Sims, C. A. (1980), “Macroeconomics and Reality”, Econometrica, 48, pp. 1-47. [ Links ]

Snijders, T. A. B. (1996), “Stochastic Actor-oriented Dynamic Network Analysis”, Journal of Mathematical Sociology, 21, pp. 149-172. [ Links ]

______ (2001), “The Statistical Evaluation of Social Network Dynamics”, Sociological Methodology, 31, pp, 361-395. [ Links ]

______ (2005), “Models for Longitudinal Network Data”, P. Carrington, J. Scott y S. Wasserman (comps.), Models and Methods in Social Network Analysis, Nueva York, Cambridge University Press. [ Links ]

______, C. E. G., Steglich, y M., Schweinberger (2007), “Modeling the Co-evolution of Networks and Behavior”, K. Van Montfort, H. Oud y A. Satorra (comps.), Longitudinal Models in the Behavioral and Related Sciences, Mahwah, Erlbaum. [ Links ]

Steglich, C. E. G., T. A. B. Snijders, y M. Pearson (2004), “Dynamic Networks and Behavior: Separating Selection from Influence”, Holanda, ICS/Departamento de Sociología, Universidad de Groningen, manuscrito. [ Links ]

Tavares-Silva, S. (2004), “On Evolutionary Technological Change and Economic Growth: Lakatos as a Starting Point for Appraisal”, Working Paper, Universidade do Porto, Faculdade de Economia do Porto. [ Links ]

Tesfatsion, L. (2006), “Agent-Based Computational Economics: A Constructive Approach to Economic Theory”, L. Tesfatsion y K. Judd (comps.), Handbook of Computational Economics. Agent-based Computational Economics, vol. 2, Amsterdam, North-Holland. [ Links ]

______, y K., Judd (2006), Handbook of Computational Economics. Agent-based Computational Economics, vol. 2, Amsterdam, North-Holland. [ Links ]

Todd, P. M. (2002), “Fast and Frugal Heuristics for Environmentally Bounded Minds”, G. Gigerenzer y R. Selten (comps.), Bounded Rationality. The Adaptive Toolbox, Cambridge Massachussets, The MIT Press. [ Links ]

Tooby, J., y L. Cosmides (1990), “The Past Explains the Present: Emotional Adaptation and the Structure of Ancestral Environment”, Ethol. Sociobio. 11, pp. 375-424. [ Links ]

Triandis, H. C. (1995), Individualism & Collectivism, Boulder, Westview Press. [ Links ]

Vanberg, V. J. (1994), Rules and Chaos in Economics, Londres: Routledge. [ Links ]

Varian, H. (1992), Microeconomic Analysis, Nueva York, W.W. Norton & Company. [ Links ]

Veblen, T.B. (1919), The Place of Science in Modern Civilization and other Essays, Nueva York, Huebsch. [ Links ]

Voland, E., R. Dunbar, C. Engel, y P. Stephen (1997), “Population Increase in Sexbiased Parental Investment in Humans: Evidence from the 18th and 19th-century Germany”, Current Anthropology, 38, pp. 129-135. [ Links ]

Vromen, J. J. (2001), “The Human Agent in Evolutionary Economics”, J. Laurent y J. Nightingale (comps.), Darwinism and Evolutionary Economics, Cheltenham, Edward Elgar. [ Links ]

Young, H. P. (1996), “The Economics of Conventions”, Journal of Economic Perspectives, 10, pp. 105-122. [ Links ]

Waldrop, M. (1992), Complexity. The Emerging Science at the Edge of Order and Chaos, Nueva York, Simon & Schuster. [ Links ]

Watts, D. (2003), Six Degrees. The Science of a Connected Age, Nueva York, W. W. Norton and Co. [ Links ]

______ (2004), “The New Science of Networks”, Annual Review of Sociology, 30, pp. 243-270. [ Links ]

______, y S., Strogatz (1998), “Collective Dynamics of ‘Small-world’ Networks”, Nature, 393, pp. 440-442. [ Links ]

Weidlich, W. (2000), Sociodynamics. A Systemic Approach to Mathematical Modelling in the Social Sciences, Nueva York, Dover Publications Inc. [ Links ]

______, y G., Haag (1983), Concepts and Models of a Quantitative Sociology, Springer-Verlag. [ Links ]

Westerhoff, F. H. (2004), “Multi-asset Market Dynamics”, Macroeconomic Dynamics, 8, pp. 596-616. [ Links ]

Wilhite, A. (2006), “Economic Activity on Fixed Networks”, L. Tesfatsion y K. Judd (comps.), Handbook of Computational Economics. Agent-based Computational Economics, vol. 2, Amsterdam, North-Holland. [ Links ]

Wooldridge, M., y N. R. Jennings (1995), “Intelligent Agents: Theory and Practice”, Knowledge Engineering Review, 10, pp. 115-152. [ Links ]

Recibido: 15 de Octubre de 2007; Aprobado: 08 de Abril de 2008

* Autor para correspondencia: Gonzalo Castañeda, e-mail: sociomatica@hotmail.com

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons