Una de las funciones de la ciencia es generar conocimiento que permita predecir el comportamiento futuro de las magnitudes bajo estudio. En las finanzas, tal vez las magnitudes que con más afán se han intentado predecir son los precios futuros de los activos financieros, “un tema que sigue siendo de interés, que se debate y discute en artículos científicos, conferencias y cocteles” (Campbell, Lo, MacKinlay 1997, 27).1
Los intentos teóricos por explicar la dinámica de los mercados y el comportamiento de los precios en los mismos datan del siglo XVII con la publicación en 1688 por José de la Vega del libro Confusión de confusiones.2 De la Vega era un especulador en el mercado de Amsterdam, proveniente de una familia de judíos españoles.3 Su libro está dividido en cuatro diálogos. En el primero se discuten los diferentes tipos de contratos que se negociaban en las bolsas europeas, en particular en la de Amsterdam.4 En el segundo, se debaten los orígenes de las variaciones de precios de los activos mientras que en el tercero se enjuician las prácticas de los agentes de mercado y los diferentes tipos de contratos permitidos. En el último diálogo se hace una discusión ética del comportamiento de los liefhebeeren y contraminores, agentes de mercado que especulan con las alzas y las bajas de precios, respectivamente.
En la obra de De la Vega no hay ningún intento de utilización de técnicas matemáticas para la discusión de los temas tratados. Vale señalar aquí, que la primera tentativa de usar la teoría de las probabilidades en la solución de un problema relacionado con los mercados debió esperar 50 años más, siendo formulado y resuelto por dos miembros de una de las más famosas familias de científicos de todos los tiempos: los Bernoulli. El problema en cuestión estaba dirigido a valorar uno de los ingredientes más ubicuos e intangibles de los mercados: el riesgo.5 En una carta del 9 de septiembre de 1713 de N. Bernoulli a P. de Montmort, el remitente le planteaba a su amigo el problema que sigue: Supongamos que se lanza repetidamente una moneda sin sesgo. Si en el primer lanzamiento aparece “cara”, se le ofrece al participante $2. Si es en la segunda tirada cuando aparece “cara” por primera vez, se le ofrece al jugador $4. En general, si es en la n-ésima tirada que aparece “cara” por primera vez, se le ofrece al participante $2 n . Se desea saber cuánto estaría dispuesta a pagar una persona por participar en el juego. Las tiradas consecutivas son obviamente independientes entre sí.
Denotemos por x una variable aleatoria que representa la ganancia que ofrece este juego al participante. Nótese que el valor esperado de esta variable aleatoria es:
Sin embargo, la mayoría de las personas solo están dispuestas a pagar una pequeña cantidad de dinero por participar. ¿Por qué? Porque la obtención de una ganancia grande se percibe cada vez menos probable en la medida en que aumenta la magnitud de la misma. Sin embargo, el pago inicial por participar debe ser abonado sin saber qué ocurrirá. Hay un riesgo de pérdida inherente en la operación.
Para resolver esta paradoja D. Bernoulli decidió reemplazar el concepto matemático de valor esperado por el menos formal de utilidad. Este último, intenta medir la significación que tiene una particular situación (por ejemplo, el desenlace del juego anterior) para un individuo específico. Depende obviamente del valor que le asignemos a un evento. Es por ello que la utilidad que diferentes personas le asignan a un mismo suceso puede diferir entre ellos.
Si bien no parecía una buena idea prescindir del claro y riguroso concepto de valor esperado a favor del concepto de utilidad, Bernoulli logró hacer una observación muy profunda acerca de este último. En su trabajo (Bernoulli 1738) escribió: “la utilidad resultante de un pequeño incremento en la riqueza es inversamente proporcional a la cantidad de bienes que previamente se poseen”.6Esta observación de D. Bernoulli es la que finalmente resuelve la paradoja de San Petersburgo (así se conoce este problema). Mientras más avanza el juego mayor es la cantidad que ganará el participante. Pero una vez alcanzado un estadio en el cual la ganancia mínima del jugador representa una cantidad respetable desde su punto de vista, el atractivo de ganar más empieza a declinar. Eso determina cuál es la cantidad que está dispuesto a pagar por participar en el juego.7
Si elegimos una persona al azar y hacemos una asociación entre ciertas cantidades de dinero y la utilidad que estas le brindan, habremos construido la función de utilidad de este jugador. Si la observación de Bernoulli es cierta, esta función debe ser cóncava.
El concepto de utilidad se encuentra en las bases mismas de la teoría económica de los mercados. Nos muestra que debemos brindarles atención a los incrementos asociados a la riqueza de los agentes económicos. Es por ello que desde los primeros intentos de sistematización de los conocimientos sobre los mercados buena parte de los estudios estuvieron dirigidos a las variaciones de precios más que a los precios mismos.8 Como esas variaciones parecían manifestarse de manera aleatoria es natural que surgieran estudios que le apostaran a la teoría de las probabilidades como herramienta básica en la comprensión de estos fenómenos complejos.
La primera tentativa de este tipo ocurre más de un siglo después, en 1863, con el libro de Jules Regnault, Calcul des chances et philosophie de la bourse. Hijo de un oficial de aduanas, Regnault comenzó a trabajar en la Bolsa de París en el año 1862.9 Esta fue una época de mucha turbulencia en el mercado francés y el tema de las fluctuaciones de los precios de los activos en los mercados se discutía frecuentemente en la prensa, en el parlamento y en conferencias especializadas. Un año después de su entrada a la Bolsa de París, Regnault publicó su libro (Regnault 1863),10 el cual no tuvo una buena acogida. Una de sus pocas citas es debida a John Maynard Keynes.
Entre las novedosas ideas que introdujo Regnault en su obra está el uso de la teoría de las probabilidades en el estudio de los movimientos de los precios. Observando las diferencias de precios de los activos a su alcance, asumió que la probabilidad de una subida de precios era igual a la probabilidad de una caída de igual magnitud y de aquí concluyó que en el largo plazo ningún agente de mercado podía alcanzar ganancias sustantivas, lo cual sin duda constituye una especie de hipótesis de mercado eficiente simplificada.11 No es de extrañar que Regnault albergara tales puntos de vista. Él sostenía que los precios contenían toda la información disponible en el mercado relevante para la formación de estos.12
Pero su contribución más importante está relacionada con las escalas temporales en que los precios fluctúan. Haciendo uso de datos diarios de los activos que se negociaban en la bolsa en el periodo comprendido entre 1825 a 1862 estudió la relación entre los rendimientos obtenidos y el intervalo de tiempo que el activo correspondiente había sido conservado por sus propietarios desde la compra a la venta. La magnitud que decidió utilizar para medir los rendimientos fueron las desviaciones (écarts) alrededor de la media, la cual él suponía igual a cero, dado que no podía haber ganancias en el largo plazo. La relación que encontró lo sorprendió según puede apreciarse en sus propias palabras: “Por primera vez nosotros formulamos aquí una ley matemática que nadie hubiera esperado hasta ahora: las diferencias de precios de un activo son proporcionales a la raíz cuadrada del tiempo transcurrido”.13 Si bien en su frase original habla de “diferencias” lo que realmente calculó fue la desviación estándar de las diferencias.14 Después utilizó ese hallazgo teórico para calcular el precio del bono perpetuo de 3% de interés conocido como renté.15 A pesar de no disponer de computadoras utilizó 11,000 valores de este bono en sus cálculos (Szpiro 2011, 50-52).
Un lector atento habrá notado que la propiedad observada por Regnault es propia de las caminatas aleatorias gaussianas. Él mismo había sugerido que la normal era la verdadera distribución de los écarts en los datos que poseía. Es razonable que hiciera esa afirmación. Toda su educación matemática provenía de cursos elaborados por A. Quetelet, quien había trabajado con P. Laplace en París. Como es conocido Laplace es uno de los descubridores de la distribución normal. De hecho, Quetelet la conocía y sugirió usarla para el estudio de fenómenos sociales.16
La distribución estadística de las diferencias de precios en los mercados ha sido un tema recurrente de investigación. En Jovanovic y Le Gal (2001) se afirma que el uso de la ley normal en el trabajo de J. Regnault está basado solamente en la observación de este último de la forma acampanada de la distribución, sin que mediara ninguna prueba estadística que validara su afirmación.
Como puede verse, los trabajos antes mencionados se dirigían a la descripción estadística de las diferencias de precios, sin pretender establecer un mecanismo que fuese el origen de tales comportamientos. Un paso fundamental en el estudio de este importante problema lo dio el joven de origen francés L. Bachelier. Nacido en Le Havre en 1870 en el seno de una familia acomodada, quedó huérfano de ambos padres a la edad de 19 años, lo cual le obligó a abandonar sus estudios. Después de concluir su servicio militar, ingresó a trabajar en la Bolsa de París en 1892. Ocho años más tarde, el 29 de marzo de 1900, defendió su tesis de doctorado en matemáticas bajo la dirección de H. Poincaré.17 El título de la misma era La teoría de la especulación, algo poco frecuente entre los aspirantes a ese grado académico en aquella época.18
Bachelier había tomado clases en la Sorbona con P. Appell, E. Picard, J. Boussinesq y el propio H. Poincaré, lo cual le había brindado una sólida formación matemática. Era un requisito en la Sorbona en aquella época, que los aspirantes defendieran una segunda tesis. El tema elegido por Bachelier fue la dinámica de fluidos. Sobre este trabajo, P. Appell, quien también fue miembro de su jurado expresó: “…el candidato Bachelier muestra un buen dominio de la teoría del movimiento de esferas en un fluido”.19
A pesar de que el tema elegido por Bachelier era algo singular, Poincaré tenía en alta estima su trabajo. En lo referente a la derivación de la Ley de Gauss para los precios y la comparación hecha por Bachelier del movimiento de los mismos con la difusión del calor, Poincaré los calificó de “muy original”. Respecto al último problema atacado por Bachelier en su tesis, a saber, ¿cuál es la probabilidad de que el precio de un activo alcance un valor predeterminado antes de una fecha prefijada?, Poincaré escribió en el reporte de la tesis: “parece insoluble”. Después tachó la palabra insoluble y escribió “parece conducir en una primera mirada a cálculos muy complicados”. A continuación expresó “el autor consigue resolver el problema por medio de un razonamiento corto, simple y elegante”.20 Finalmente recomendó la publicación de la tesis en una respetada revista francesa.21 Es así como la obra de este pionero llegó a nuestros días.
Bachelier postuló que los precios tenían una distribución normal.22 Existen varios hechos que excusan la aparente ligereza de Bachelier en admitir esta hipótesis. En primer lugar, si los movimientos de los precios se describen por una ecuación similar a la de conducción del calor, según la analogía propuesta en su tesis, la desviación estándar de los mismos σ debe satisfacer la relación siguiente:
Obsérvese que Regnault había hecho una afirmación parecida 37 años antes en su libro. Como se sabe (y con toda certeza, Bachelier estaba al tanto de ello) esta es una propiedad de las caminatas aleatorias gaussianas.
En segundo lugar, Bachelier, al igual que Regnault, debió calcular sus distribuciones empíricas manualmente, haciendo uso de datos diarios, sin el auxilio de ningún instrumento de cómputo. Por tanto, habiendo observado una curva acampanada, con colas que caían rápidamente, resulta entendible su afirmación de que los precios seguían una distribución normal.
En tercer lugar y no menos importante, admitir que los precios distribuían según la normal, abría la posibilidad de usar toda la bien aceitada maquinaria teórica, terra cognita, al decir de Mandelbrot (2004, 53) desarrollada durante más de 150 años acerca de esta distribución estadística.
El trabajo de Bachelier no fue muy reconocido en su época. Afortunadamente, P. Samuelson lo “descubrió” en 1955, haciéndolo lectura obligada para sus alumnos e insertándolo así en la corriente principal de las ciencias económicas modernas.23 Paul Samuelson puede ser comparado con Galileo en su afán por utilizar matemáticas de alto nivel para estudiar los fenómenos de su interés. Nacido en 1915, de una familia judía de Indiana, fue testigo de primera mano de la Gran Depresión, pero la posición social de su familia le permitió escapar de las penurias de aquel tormentoso periodo. Se graduó de la Universidad de Chicago a los 20 años y se marchó a Harvard por un doctorado.
Allí comenzó a interesarse por la termodinámica de W. J. Gibbs. Este último había tenido un alumno muy destacado, E. B. Wilson, profesor de estadística de Samuelson durante sus estudios de doctorado. De esta forma, las ideas de Gibbs entraron en el trabajo doctoral de Samuelson.24 Al recibir el Premio Nobel de Economía en 1970, A. Lindbeck en el laudo sobre su obra afirmaba: “más que cualquier economista contemporáneo, ha contribuido a elevar el nivel analítico y metodológico general de las ciencias económicas”.
Samuelson tiene noticias del trabajo de Bachelier por primera vez a mediados de los años cincuenta del siglo pasado. Su colega L. Savage, un estadístico de Yale le preguntó si conocía la obra del francés. Samuelson encontró una copia de la tesis doctoral de Bachelier en la biblioteca del MIT, universidad donde trabajaba desde hacía algunos años.25
La lectura de la tesis de Bachelier impresionó a Samuelson. No obstante, reconoció las limitaciones del trabajo del francés, en particular su suposición de que los precios distribuían normal. Entendió que tal cosa estaba en contradicción con el concepto de responsabilidad limitada, esto es, la afirmación de que los precios no pueden ser nunca negativos (Campbell, Lo, MacKinlay 1997, 32).
Si bien la argumentación de Samuelson en contra de la hipótesis de normalidad de los precios propuesta por Bachelier estaba basada en argumentos económicos, no fue este el primero en comprender la inviabilidad del modelo del francés. Fue un físico de altas energías del Laboratorio de Investigaciones Navales de la Marina de los EEUU, llamado Matthew Fontaine Maury Osborne, quien en realidad dio cuentas de la inconsistencia por primera vez. Nacido en 1916, manifestó desde temprana edad una notable precocidad e independencia en sus temas de investigación. Esta característica suya le trajo en particular algunos problemas en la obtención de su doctorado en física, lo cual ocurrió en 1959.26
Su trabajo en finanzas fue revolucionario y de una profunda esencia interdisciplinaria. Aplicó sus amplios conocimientos de física a la construcción de un modelo para el comportamiento de los precios en los mercados. Inicialmente M. F. M. Osborne intentó verificar los resultados de Bachelier acerca de la normalidad de los precios sin éxito. Sin embargo, las distribuciones empíricas por él construidas sugerían que la correcta distribución parecía ser lognormal.27 Debería existir según Osborne, una explicación para este hallazgo en las raíces mismas del comportamiento de los agentes de mercado. En alguno de sus múltiples proyectos interdisciplinarios anteriores había entrado en contacto con la Ley de Weber-Fechner28 que establece una relación cuantitativa entre el estímulo recibido y la respuesta que un ser humano ofrece al mismo.29 Creyó que este resultado teórico describía muy bien la situación de los agentes en los mercados.30 Así, postuló que la distribución de los precios debería ser lognormal (Osborne 1959). En cierto sentido, el hallazgo de D. Bernoulli dos siglos antes respecto al concepto de utilidad reflejaba también un comportamiento similar al reportado por Weber y Fechner (Szpiro 2011, 189).
Osborne fue la primera persona que estudió las propiedades estadísticas de los volúmenes de las transacciones financieras, observando que su magnitud era un aspecto relevante en la formación de los precios.31 Sin embargo, también carecía de adecuados instrumentos de cómputo. Por ello, en su trabajo no aparece ninguna referencia a las casi imperceptibles desavenencias que se observan entre las colas derechas de la distribución empírica y teórica de su modelo logarítmico de los precios.
La irrupción de las computadoras en esta área de las ciencias económicas llegó de la mano de uno de los matemáticos más controvertidos del siglo XX, cuya contribución a las finanzas sigue siendo innovadora y polémica: B. B. Mandelbrot.
Todo en la vida de Mandelbrot parece sacado de una novela. Nacido en Varsovia el 20 de noviembre de 1924, se trasladó con sus padres a Francia en 1936. Deja París en 1939, meses antes de la invasión alemana, y se marcha al sur del país. Allí permanece escondido hasta 1943, donde sus amigos de la Resistencia Francesa lo envían a Lyon para salvarlo de la persecución de los nazis. Regresa a París en 1944 después de la liberación y es admitido en una de las más prestigiosas escuelas preparatorias de la ciudad. Hace los exámenes de ingreso para las grandes écoles y termina ingresando a la École Polytechnique con la intención de estudiar matemáticas.
Su tío, Szolem Mandelbrot, era un distinguido matemático que sustituyó a J. Hadamard como profesor en el Collège de France, llegando a ser además miembro del prestigioso grupo Bourbaki. Al conocer la noticia de la decisión académica de su sobrino se sintió muy feliz. Pero a medida que los intereses geométricos de Benoit, totalmente en conflicto con el rigor bourbakiano de la época comenzaron a hacerse visibles, perdió toda esperanza de encarrilar a su díscolo sobrino. Cuenta la historia que un día mientras oía las descabelladas ideas de Benoit para su tesis de doctorado, sacó de la basura un panfleto y se lo arrojó a su sobrino, sugiriendo que ese era el tipo de cosas a las que debería dedicarse. Se trataba de un ensayo sobre el libro de G. K. Zipf, Human behaviour and the principle of least-effort, recién publicado por entonces. Benoit terminó trabajando en ese tema de frontera entre la lingüística, la economía y otras ramas del saber.
Se doctoró en matemáticas en el año 1952. Posteriormente, se fue al MIT y luego al Instituto de Estudios Avanzados de Princeton, donde fue el último estudiante de postdoctorado a cargo de J. von Neumann. Después de una búsqueda infructuosa de una posición académica aceptó una oferta de IBM Research.
Uno de los objetivos del Thomas Watson Research Center de la IBM era encontrar aplicaciones para sus nuevas computadoras. De esta manera, Mandelbrot fue asignado al área de aplicaciones económicas, donde se interesó por la distribución de los ingresos en una población. Este tipo de distribución, estudiada inicialmente por W. Pareto, guardaba cierta relación con su trabajo doctoral sobre la distribución de Zipf, sugerido por el iluminador panfleto arrojado a sus pies años atrás por su tío Szolem.
A pesar de la orientación del trabajo de Mandelbrot en IBM, sus resultados seguían siendo de interés en el ámbito académico. Así, en 1961, Mandelbrot fue invitado a dar una conferencia en el Departamento de Economía de la Universidad de Harvard sobre su trabajo acerca de la distribución de la riqueza en una población. Su anfitrión fue el economista H. Houthakker. Al entrar a la oficina del mismo, Mandelbrot observó en el pizarrón algunos gráficos muy similares a los que él mismo iba a usar en su próxima presentación. Intrigado por su origen, le preguntó a su anfitrión sobre qué trataba su investigación, siendo informado por este de que se trataba de los rendimientos diarios de los precios del algodón, por aquel entonces un mercado aun sensiblemente especulativo.32 Houthakker conocía los trabajos de Bachelier y Osborne e intentaba verificar la hipótesis de la caminata aleatoria sobre los precios del algodón, pero los datos no parecían acomodarse al antes mencionado postulado. Mandelbrot le pidió a Houthakker compartir sus datos y de regreso a IBM comenzó a trabajar con ellos. Verificó que efectivamente su colega tenía razón: las diferencias de precios no se ajustaban a una distribución normal. Tenían las colas de la distribución más gruesas33 de lo debido. Afortunadamente, Mandelbrot había sido alumno de P. Levy y conocía bien su obra, en particular sus trabajos sobre distribuciones con colas eventualmente más gruesas que la normal. Entre ellas existe una clase muy amplia llamadas distribuciones estables34 (de la cual la misma distribución normal es un miembro) que jugaron un papel muy importante en su contribución al estudio de este problema.
La idea de Mandelbrot está muy ligada al principio de autosemejanza que él estableció para los fractales: Si las distribuciones de las diferencias de precios en los mercados son estables, entonces podemos transitar por las distintas escalas temporales sin tener que hacer cambios en la forma de la función de distribución, eventualmente solo deberemos cambiar los parámetros de las mismas. Esta idea brillante que apareció publicada en The variation of certain especulative prices (Mandelbrot, 1963) liberó a la teoría económica de la rígida hipótesis referente a la distribución normal de las diferencias de precios. Mas aún, puso en tela de juicio uno de los principios paradigmáticos de la teoría, a saber, la eficiencia de los mercados. Según Cootner (1964, 333) este trabajo de Mandelbrot forzó a la comunidad científica a enfrentar las incómodas desavenencias entre las distribuciones observadas y teóricas “que existen pocas dudas de que habían sido barridas bajo la alfombra por todos nosotros”. Si bien el trabajo de Mandelbrot no ha sido aceptado de manera unánime por la comunidad científica, es, no obstante, un parteaguas en esta área de investigación, siendo punto de partida de la línea de pensamiento que intenta entender los fenómenos económicos desde la perspectiva de la teoría de los sistemas complejos.
En las últimas décadas hemos sido testigos de una eclosión de estudios sobre los sistemas complejos. Producto del abaratamiento de las computadoras digitales, el espectacular aumento de su velocidad de cálculo, así como del increíble incremento alcanzado en sus posibilidades de almacenamiento de datos, estos dispositivos se han convertido en la herramienta por excelencia según Pagels (1989) para la investigación de fenómenos o modelos de los mismos, cuya complejidad había hecho con anterioridad prohibitivo cualquier intento de indagación a profundidad, reduciendo nuestro conocimiento de ellos a meros esquemas simplificados de su comportamiento.
Las finanzas son sin duda una de las áreas que más se ha beneficiado de este estado de cosas, pues como hemos discutido con anterioridad, sus estudiosos han sufrido una endémica escasez de datos fidedignos. A pesar de los esfuerzos de Regnault, Bachelier y otros, tanto sus métodos de investigación como las aportaciones teóricas obtenidas se habían visto coartados por la falta de datos precisos del quehacer de los mercados y por la incapacidad de los agentes de examinarlos en su conjunto. Solo para poner en perspectiva esto, en un solo día de funcionamiento de los mercados financieros actuales se recaudan más datos que en varios siglos de actividad económica anterior.
Los propios métodos de la moderna teoría de los sistemas complejos estuvieron desde sus inicios fuertemente comprometidos por la revolución que se gestaba en el campo de la computación digital. Si bien es cierto que científicos de la talla de H. Poincaré vislumbraron hace más de un siglo fenómenos importantes dentro del área de los sistemas complejos (Gray 2013),35 no fue hasta 1963 cuando E. Lorentz ofreció evidencia numérica de la existencia de sistemas caóticos (Lorentz 1963). Muchos científicos tuvieron geniales intuiciones acerca de la complejidad, solo que sus instrumentos teóricos y prácticos de investigación como ya hemos mencionado eran insuficientes. A juicio del autor, este es el caso de Adam Smith. El concepto de “mano invisible”36 representa el reconocimiento de la existencia de una propiedad emergente de los mercados, es decir, un observable macroscópico que emerge de la interacción de los agentes y que no puede ser deducido directamente de las reglas de interacción microscópica de los mismos.
Observar los fenómenos económicos a través de la lente de la teoría de los sistemas complejos es como observar los cielos a través del telescopio de Galileo Galilei a principios del siglo xvii o microrganismos a través del microscopio de A. Leeuwenhoek a finales de esa misma centuria. Los antes mencionados inventos cambiaron drásticamente el panorama de las ciencias. Sin duda las computadoras y la teoría de los sistemas complejos ofrecerán similares resultados en relación con la investigación económica.
El largo idilio entre las ciencias naturales y las ciencias sociales,37 del cual los episodios que relacionan a Th. Hobbes con Galileo (Ball 2004, 11-16), H. Poincaré con L. Walras (Ingrao e Israel 1990, 134-137) y L. Bachelier (Szpiro 2011, 78-79) o a B. Mandelbrot con E. Fama (Ball 2004, -198), (Mandelbrot y Hudson 2004, 166-167) son pasajes paradigmáticos, se ha reactivado de nuevo a partir de una decisiva incursión de los físicos en el área de las ciencias económicas y en particular en las finanzas. La historia de las ciencias documenta fehacientemente que a las áreas de trabajo nuevas o fértiles con frecuencia arriban investigadores de otras disciplinas que encuentran atractivos los retos que en ellas aparecen. La abundancia de datos y mediciones de los mercados ha atraído en las últimas dos décadas a muchos físicos al área de las finanzas, lo cual ha generado un nuevo punto de vista en el estudio de los mercados financieros. Esta emigración tiene una componente antropológica importante. Durante la Segunda Guerra Mundial y toda la Guerra Fría las potencias europeas y
EEUU expandieron notablemente la investigación en física (Barton 1953), (Kaiser 2006), (Leslie 1993, 167-173) por la importancia que esta ciencia tenía en la carrera armamentista. Sin embargo, tras la caída del Muro de Berlín y la correspondiente desaparición del bloque soviético, comenzó un periodo que aún no culmina donde la demanda de físicos ha decaído drásticamente (Kaiser 2002), (Kleves 1995, cap. 25), (Leslie 1993, cap. 9). Es por ello que muchos han decidido incursionar en el sector de las finanzas en particular y en la investigación económica en general. Se ha acuñado el término econofísica38 para describir el área de estudios de fenómenos económicos con herramientas de las ciencias físicas.
Los desarrollos en años recientes en el sector de las finanzas apuntan a una ampliación de la concurrencia de nuevas disciplinas científicas (como la inteligencia artificial y la psicología) en la gestación de nuevas teorías del comportamiento de los mercados. Las tormentas financieras de la última década, producto de una combinación de avaricia y de una incorrecta evaluación de los fenómenos financieros confirman que la comprensión de los fenómenos económicos está lejos de ser completa. La teoría económica de los mercados sigue siendo un terreno fértil para nuevos esfuerzos interdisciplinarios.














