SciELO - Scientific Electronic Library Online

 
 número65Adorno sobre Kafka. ¿Una lectura ilustrada?La condición humana en Nietzsche. Una reflexión a partir de Zaratustra índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Tópicos (México)

versión impresa ISSN 0188-6649

Tópicos (México)  no.65 México ene./abr. 2023  Epub 09-Sep-2023

https://doi.org/10.21555/top.v650.2068 

Artículos

La crítica de J. M. Keynes al proyecto de matematizar la probabilidad de J. Bernoulli

J. M. Keynes’s Criticism of J. Bernoulli’s Project of Mathematizing Probability

Francisco Javier Aristimuño1 
http://orcid.org/0000-0002-2662-401X

1Universidad Nacional de Río Negro, Argentina. faristimuno@unrn.edu.ar


Resumen.

A cien años de la publicación de A Treatise on Probability, de J. M. Keynes, este artículo indaga sobre su relevancia en la historia del concepto de “probabilidad”. Tras repasar el surgimiento y evolución del concepto moderno de “probabilidad” hasta principios del siglo XX, se identifica un punto nodal en la publicación del Ars Conjectandi de J. Bernoulli a principios de siglo XVIII, en donde se propuso de forma original tratar el campo completo de las conjeturas probables mediante el herramental matemático de la doctrina de las posibilidades. El artículo busca comprender el Treatise keynesiano como una reacción a dicho proyecto encarnado en el siglo XVIII por la escuela clásica laplaciana y en el XIX por la escuela frecuentista. Tras presentar los principales argumentos de Keynes en contra de la concepción de la probabilidad como una entidad necesariamente medible y, por ende, tratable mediante el herramental matemático de la doctrina de las posibilidades, se extraen reflexiones sobre la relevancia y actualidad del Treatise.

Palabras clave: Keynes; Tratado sobre probabilidades; historia de la probabilidad; mensurabilidad de la probabilidad; Bernoulli

Abstract.

A hundred years after the publication of A Treatise on Probability, by J. M. Keynes, this article inquires about its relevance in the history of the concept of probability. After reviewing the emergence and evolution of the modern concept of probability until the beginning of the 20th century, a nodal point is identified in the publication of J. Bernoulli’s Ars Conjectandi at the beginning of the 18th century, where it was proposed for the first time to treat the entire field of probable conjectures through the mathematical tools of the doctrine of possibilities. This article seeks to understand the Treatise as a reaction to this project embodied in the 18th century by the Laplacian classical school and in the 19th century by the Frequentist school. After presenting Keynes’s main arguments against the conception of probability as a necessarily measurable entity and therefore treatable through the mathematical tools of the doctrine of possibilities, reflections are drawn on the relevance and topicality of the Treatise.

Keywords: Keynes; Treatise on Probability; history of probability; probability measurement; Bernoulli

1. Introducción

J. M. Keynes es mayormente conocido por sus obras en el campo del pensamiento económico, especialmente por su último libro, La teoría general sobre la ocupación, el dinero y el interés, de 1936 (desde ahora, La teoría general) (Keynes, 2003). Sin embargo, antes que economista, Keynes fue filósofo, y su principal interés de juventud fue la probabilidad. Desde 1905 hasta 1913 trabajó casi exclusivamente en este tema, y no fue hasta 1921 que publicó sus reflexiones sobre la temática en su Tratado sobre la probabilidad (desde ahora, simplemente el Tratado).1

Recientemente, a partir, primero, de los trabajos de Shackle (1970 y 1976), pero más definitivamente tras las contribuciones de O’Donnell (1989 y 1991) y Carabelli (1988), se recuperó el interés por la concepción de la probabilidad que Keynes buscó formular en el Tratado. La mayoría de los autores que se volcaron al estudio del Tratado lo hicieron con el objetivo de descubrir su relevancia para el novedoso abordaje de algunos problemas económicos que presentó Keynes en su madurez. De este modo, repararon en que el Tratado contiene un esquema para concebir la formación de expectativas en función a la cantidad y calidad de la información disponible, algo usualmente desdeñado en la economía ortodoxa que permite comprender al menos algunas de las diferencias de opinión que se presentan a la hora de concebir el funcionamiento económico (Davidson, 2009; Dequech, 1997 y 2011; O’Donnell, 1991; Runde, 1994).

En este artículo no buscamos abordar la relevancia del Tratado desde el mismo ángulo en que fue enfocado en los trabajos antes mencionados; en cambio, buscamos reflexionar sobre la relevancia del Tratado en la historia del concepto de “probabilidad”. Es decir, buscamos poner a la historia de la probabilidad en el centro de la escena para reflexionar sobre el rol que el Tratado de Keynes ocupó en esta.

A cualquier lector familiarizado con la literatura sobre teoría de probabilidades, el Tratado se le aparece como una obra extraña que, a primera vista, no parece encuadrar dentro del campo de la probabilidad. Esto se debe, esencialmente, a que no es una obra matemática y el sentido común de nuestra época nos ha enseñado que la probabilidad es una rama de la matemática y, por ende, si el Tratado no pertenece al género, entonces, tampoco puede pertenecer a la especie. Pareciera entonces que se trata de un tratado sobre otro tema, camuflado bajo un título engañoso.

Esta rareza del Tratado ha llevado a que generalmente se le entienda como una obra desvinculada de la herencia conceptual de la probabilidad. De este modo se la ha comprendido como producto de la influencia de George Moore, Bertrand Russell y William Johnson sobre el pensamiento del joven Keynes. Estas eminencias, si bien fueron destacados lógicos y filósofos en su época, no hicieron contribuciones específicas en el campo de la probabilidad. Tanto O’Donnell (1989), como Carabelli (1988), Gillies (2000), McCann (1994) y Landro (2010 y 2014) explican el Tratado como consecuencia del contexto intelectual inmediato de Keynes, remarcando su carácter disruptivo respecto a la historia del concepto de “probabilidad”.

Sin negar la influencia de estos pensadores en la formación de las categorías conceptuales a través de las cuales Keynes estructuró su pensamiento, creemos que es un error concebir esta obra en discontinuidad con la historia del concepto de “probabilidad”. De hecho, Keynes dedica la mayor parte de su Tratado a revisar críticamente la herencia conceptual de la probabilidad. El Tratado es aún hoy una obra de consulta por la enorme síntesis de pensadores pretéritos que contiene.

Otra razón por la cual se ha tendido a tratar al Tratado como una obra desvinculada de la herencia conceptual de la probabilidad reside en que allí Keynes expone una concepción de la probabilidad que se diferencia de las dos corrientes interpretativas principales que dominan el campo en la actualidad.2 La primera de estas corrientes es la frecuentista y es, sin duda, la más difundida entre los hombres y mujeres de las ciencias naturales. La segunda, conocida como subjetivista o personalista, es especialmente común entre economistas, aunque tiene adeptos en todo el campo científico gracias a su complementación con el enfoque bayesiano (De Finetti, 1972; Savage, 1972).3 La mayoría de los trabajos que revisitan el Tratado lo hacen desde alguna de estas dos perspectivas limitándose a sancionar sus diferencias como deficiencias del planteamiento keynesiano.

Sin embargo, en la actualidad se puede ver un creciente interés por dar cuenta del comportamiento racional ante un tipo de incertidumbre más profunda que la que puede abordarse desde nociones frecuentistas y que no por ello debe interpretarse como íntegramente subjetiva.4 El Tratado de Keynes, con todas sus deficiencias y diferencias con la multiplicidad de enfoques actuales, no deja de ser un hito fundamental en todos los esfuerzos contemporáneos en esa dirección. Entonces, el principal objetivo de este artículo es remediar las falencias en la interpretación histórica de esta obra y recuperar sus lecciones para los desafíos actuales en el campo de la probabilidad y el estudio del comportamiento en contextos de incertidumbre.

El artículo se estructura del siguiente modo. En la siguiente sección se repasan los principales hitos de la historia intelectual de la probabilidad hasta principios de siglo XX, momento en el que Keynes escribe su Tratado. Esto implica analizar el surgimiento del concepto moderno de “probabilidad” a mediados del siglo XVII y su relación con los juegos de azar. Siguiendo a Kendall (1956), se enfatiza la diferencia, común en ese período, entre la doctrina de las posibilidades y la probabilidad. Entender dicha diferencia es fundamental para luego comprender el proyecto de J. Bernoulli a fines del mismo siglo. Para cerrar ese primer apartado, se repasan las principales ideas que estructuraron a la escuela clásica de probabilidad, generalmente asociada a Laplace, y la escuela frecuentista que surgió en el siglo XIX como reacción a las ideas de la escuela clásica. En la sección tercera se retoma la comprensión retrospectiva de dicha historia por parte de Keynes; en este sentido, se resalta el rol que tuvo el Ars Conjectandi de Bernoulli al proponer el tratamiento del campo completo de la probabilidad bajo las reglas matemáticas de la doctrina de las posibilidades y su influencia sobre las dos escuelas de pensamiento probabilístico que lo sucedieron. Luego se analiza la crítica de Keynes a la comprensión inaugurada por Bernoulli de que la probabilidad es una fracción de la certeza. A continuación, se desarrolla brevemente la concepción keynesiana de la probabilidad como una entidad no necesariamente medible e incluso, algunas veces, no comparable. Finalmente, se cierra el artículo con algunas reflexiones sobre la historia del concepto de “probabilidad” y el lugar del Tratado en esta.

2. Breve historia de la probabilidad hasta principios del siglo XX

2.1 Los inicios en el siglo XVII: Pascal, Fermat y Huygens

En el marco de la Escolástica, la palabra “probabilidad” era asociada con aquello que es aprobado por la mayoría o por los sabios. Esta comprensión es, en realidad, herencia aristotélica y deriva del término griego endoxon (ενδόξων), el cual puede ser traducido como “respetable” o “glorioso”. Según Schuessler (2016), Boecio, entre otros, es responsable de traducir endoxon al latín como probabilia u opiniones probabiles.

Hacking (2006) rescata un ejemplo bastante claro sobre la diferencia en el uso de la palabra “probabilidad” previo a su transformación conceptual. Gibbon, escribiendo en 1763 acerca de las discrepancias con respecto a la ruta que habría tomado Aníbal Barca a través de los Alpes, aún conserva este sentido pretérito de la probabilidad; dice: “Concluyamos, entonces […] que aunque la narrativa de Livio tiene más probabilidad, la de Polibio tiene más de verdad” (Hacking, 2006, p. 19; traducción propia). El relato de Livio contaba con mayor aprobación por parte de los sabios de la época; sin embargo, para Gibbon, el de Polibio era más próximo a la verdad.5

En este punto, hablar de la probabilidad como una entidad medible, susceptible de ser expresada como una fracción de la certeza, era impensado (o más bien impensable). Incluso en los juegos de azar, que se practicaban con frecuencia en la Alta Edad Media y de los cuales existen registros en la antigua Grecia, las posibilidades de los jugadores no eran medidas, sino que eran asociadas con la suerte y la fortuna de cada jugador (Gillies, 2000). Como explica Coumet:

Las palabras oportunidad (chance), suerte (sort), azar (hasard) […] tienen, aún en nuestros días, una resonancia peculiar que hace innecesario insistir en este aspecto […]. Para poder especular matemáticamente sobre los juegos de azar era necesario que abandonasen antes el ámbito de lo sagrado por el círculo de los asuntos puramente humanos (Coumet, 2000, pp. 215-216).

Los primeros intentos de “medir la suerte” de estos jugadores surgieron de autores del Renacimiento italiano, como Cardano, Pacioli, Tartaglia y Galileo en los siglos XV y XVI. Sin embargo, estas ideas no tuvieron continuidad y solo fueron recuperadas tras la influencia de los tratados de Pascal, Fermat y Huygens a mediados del siglo XVII (Daston, 1995; Hacking, 2006; Todhunter, 1865) ¿Por qué las ideas de unos tuvieron continuidad mientras que las de otros no? La respuesta ensayada por Coumet (2000), Maistrov (1974) y Daston (1995), entre otros, radica en la importancia del desarrollo de la sociedad comercial, que introdujo nuevas problemáticas y dio sentido a abordajes que antes no lo tuvieron. Más precisamente, la naciente sociedad comercial llevó a que cobraran interés un gran corpus de “problemas de división” que tratan sobre los principios de equidad que deben regir en contratos aleatorios.6

El “problema de los puntos” o “regla de los repartos” que motivó la famosa correspondencia entre Pascal y Fermat en 1654 es uno de estos problemas. Este surge de preguntarse cómo debe repartirse el botín de un juego de azar que consiste en ganar un cierto número de partidas, donde en cada una los jugadores tienen las mismas posibilidades de ganar, pero que ha sido interrumpido de mutuo acuerdo con el marcador a favor de uno de ellos. En la primera carta que se conserva de la correspondencia entre Pascal y Fermat, el primero manifiesta su admiración por su compañero por “encontrar el valor justo de los repartos […] [;] hasta ahora, yo era el único que conocía dicha proporción” (Pascal, citado en Todhunter, 1865, p. 8). En el planteamiento de estos autores, el problema se presenta en un juego que consiste en adquirir tres puntos y en donde cada uno de los jugadores apostó 32 pistolas, siendo el botín total de 64 pistolas. El problema radica en establecer cuánto corresponde a cada uno de los jugadores cuando el juego se detiene con el marcador a favor de uno de ellos.

En su solución Pascal comienza por concebir la situación en la que el juego se detiene con el marcador 2 a 1. Para Pascal, las 32 pistolas del jugador que va ganando no están en juego en la próxima ronda; esa parte del premio “debe considerarla íntegramente asegurada”(Pascal, citado en Coumet, 2000, p. 16). Solo la propiedad de las 32 pistolas del jugador que está perdiendo es incierta, al estar sujeta a la aleatoriedad del próximo juego. Si el jugador que va ganando obtiene un punto adicional, la totalidad del botín será suya, pero si pierde quedarían igualados y se volvería a la situación inicial. Entonces, lo justo, razona Pascal, es que las 32 pistolas del jugador que va perdiendo se distribuyan equitativamente de acuerdo con sus posibilidades. Por ende, su forma de establecer el reparto es la siguiente:

Ganador: (1) 32 + (0.5) 32 = 48 pistolas.

Perdedor: (0) 32 + (0.5) 32 =16 pistolas.7

La correspondencia entre Pascal y Fermat, adelantó las ideas que Huygens volcaría en De ratiociniis in ludo alae solo tres años después (en 1657) (Huygens, 1714). Este tratado fue el primer abordaje sistemático y la principal introducción a la doctrina de las posibilidades hasta la publicación póstuma del Ars Conjectandi de Bernoulli en 1713. Huygens señala con claridad lo que a sus ojos es relevante de su obra.

Aunque en los juegos que dependen completamente de la fortuna, el éxito siempre es incierto; sin embargo, puede determinarse exactamente cuánto más probable es ganar que perder […]. Del mismo modo, si estoy de acuerdo con otro en jugar al primero que gana tres por un premio determinado, y he ganado uno de mis tres, aún no está claro cuál de nosotros alcanzará las tres victorias primero, pero, el valor de mi expectativa y el de la suya pueden descubrirse exactamente; y consecuentemente, puede determinarse, si ambos acordamos dejar el juego inconcluso, cuánto del premio corresponde a mi parte y cuánto a la suya; o, si otro desea comprar mi lugar y oportunidad, a cuánto podría venderlo (Huygens, 1714, p. 1; traducción propia).

A los primeros matemáticos, como Pascal, Fermat o Huygens, no les interesaba exponer un método para la estimación de probabilidades numéricas; de hecho, partían de suponer la equiposibilidad entre resultados (Daston, 1995; Gillies, 2000; Landro, 2010)8 Lo que les interesaba, en cambio, era razonar rectamente sobre posibilidades preestablecidas en juegos de azar. De ese modo, creían, podía determinarse el valor de la oportunidad de participar en un juego con una determinada expectativa. También podía diferenciarse un juego justo de uno injusto (Arnauld y Nicole, 1662). En un inicio este era el fin que perseguía la teoría matemática de la probabilidad o, como originalmente se la llamó, la doctrina de las posibilidades (De Moivre, 1756).

2.2. La probabilidad como juicio: Locke

En la segunda mitad del siglo XVII y en la primera del XVIII, como advierte Kendall (1956), se diferenciaba entre la probabilidad, como un concepto más amplio, y lo que De Moivre (1756) llamó la doctrina de las posibilidades. La primera se preguntaba sobre qué es razonable creer dada una cierta evidencia, y la segunda, como ya se dijo, buscaba razonar rectamente partiendo de posibilidades preestablecidas.

Bernoulli, en su Ars Conjectandi, publicado póstumamente en 1713 (Bernoulli, 1966 y 2005), fue el primero en sugerir que toda probabilidad podía ser representada como una fracción de la certeza y tratada mediante la doctrina de las posibilidades. A nosotros nos interesa detenernos en el período previo a su fusión con la doctrina de las posibilidades porque creemos que es fundamental para comprender la relevancia del Tratado keynesiano en la historia del concepto de “probabilidad”.

Para los autores que escriben en este período, la probabilidad es lo que la razón recomienda creer en ausencia de pruebas concluyentes. El objetivo de la teoría de probabilidades, desde su perspectiva, es desentrañar el modo razonable de conducirse en asuntos sobre los cuales no es posible alcanzar la certeza que acompaña al conocimiento. De este modo, buscaron describir las reglas que gobiernan el pensamiento recto en ausencia de certezas.

Locke, por ejemplo, analiza la probabilidad señalando que lleva a distintos grados de certeza según las evidencias con las que se cuenta, pero evita tratarlos como fracciones de certeza a pesar de que no ignoraba la naciente doctrina de las posibilidades, con epicentro en París (Daston, 1995, p. 45). Para Locke la mente tiene dos facultades que se aplican de forma distinta a la asociación de ideas según sea posible obtener evidencias demostrativas de la veracidad o falsedad de dicha asociación. Por un lado, está el conocimiento, claro y seguro, que percibe la asociación entre dos ideas en forma inmediata tras la presentación ante la mente de pruebas concluyentes; por otro lado, existe el juicio, mediante el cual la mente presume la asociación en función a evidencias falibles, es decir, insuficientes para garantizar la certeza característica del conocimiento (Locke, 1999, p. 657).9

Locke da un ejemplo muy claro sobre la diferencia entre el conocimiento y la probabilidad. En la demostración de que los tres ángulos de un triángulo son iguales a dos rectos, uno puede percibir la conexión segura en cada uno de los pasos del razonamiento hasta llegar a la conclusión, también segura, de que los tres ángulos de un triángulo son efectivamente idénticos a dos rectos. De ese modo, uno conoce esta proposición. Pero otro hombre que no quiere molestarse en seguir los pasos de la demostración puede tomar la palabra de un matemático respetable y creer firmemente en la proposición a pesar de que no observó pruebas infalibles de que esto es efectivamente así. En ese caso, el hombre juzga que la palabra de un matemático es prueba suficiente para tomarlo como verdadero. Al hacer esto, el fundamento de su creencia es la probabilidad.

En realidad, esta forma de concebir la probabilidad ya estaba presente en el clásico manual de 1662, La lógica o el arte de pensar, también conocido como la Lógica de Port-Royal, en clara referencia al convento jansenista que, entre otros, alojó a Pascal en ese período10. Sus autores presentan el tema diferenciando a la probabilidad del conocimiento cierto que es alcanzable en otros asuntos. Para ellos, la diferencia se da entre verdades sobre la naturaleza, que “siendo que todo es necesario, nada es verdad que no sea universalmente verdadero”(Arnauld y Nicole, 1662, p. 345), y verdades contingentes, en general relacionadas con eventos o accidentes humanos, en donde “la simple posibilidad de un evento no es razón suficiente para creerlo, y que podemos tener razones para creerlo, aunque no juzguemos que su contrario sea imposible” (Arnauld y Nicole, 1662, p. 345). En estos casos, lo que lleva a creerlo es la evidencia con la que se cuenta.

J. Bernoulli coincide con Locke y los autores de Port-Royal en que la probabilidad consiste esencialmente en la consideración de pruebas que, a pesar de no ser demostrativas, invitan a presumir la verdad de una proposición. Para Bernoulli, “las probabilidades se estiman tanto por el número como por el peso de los argumentos [weight of the arguments] que de alguna manera prueban o indican que cierta cosa es, fue, o será” (Bernoulli, 2005, p. 10; traducción propia).

Tanto Locke como Bernoulli, escribiendo en las últimas décadas del siglo XVII, comparten la comprensión de la probabilidad como juicio razonable dada una determinada evidencia. Sin embargo, para Locke, el conocimiento y la probabilidad dependían de distintas facultades de la mente y la última nunca podría aspirar a la certeza propia de la primera. Para el filósofo inglés, la certeza es producto de la intervención de un elemento intuitivo que no está presente en los juicios de probabilidad (Owen, 2007). Bernoulli, en cambio, concibe a la probabilidad como una fracción siempre determinada de la certeza. Para él, la probabilidad es “el grado de certeza, y difiere de la anterior [de la certeza] como una parte difiere del todo” (Bernoulli, 2005, p. 8). En este sentido, la probabilidad, para Bernoulli, siempre puede expresarse como una fracción, donde la certeza sea el denominador (la unidad) y la parte de la certeza que se tenga el numerador. Este fue el inicio del proyecto de matematizar la probabilidad que Laplace coronaría hacia fines del siglo XVIII y Keynes criticaría a principios del XX.

2.3. El Ars Conjectandi de J. Bernoulli

Bernoulli es claro respecto a su objetivo de transferir la doctrina de las posibilidades de Huygens al campo completo de la probabilidad:

Por lo tanto, el grado de certeza, o la probabilidad engendrada por un argumento, puede deducirse considerando estos casos de acuerdo con la doctrina dada en la parte I,11 exactamente de la misma manera en que usualmente se investiga el destino de los jugadores en los juegos de azar (Bernoulli, 2005, p. 14; traducción propia).

Sugerir que la probabilidad sustentada por las evidencias disponibles puede ser representada como una fracción de la certeza y operada mediante la doctrina de las posibilidades fue completamente novedoso para la época. Esto tuvo un fuerte impacto en los matemáticos de la Ilustración francesa, Condorcet y Laplace especialmente. Ellos vieron en esta propuesta la solución a las diferencias de opinión que el conocimiento no pudiese erradicar (Daston, 1995).

[…] la teoría de las probabilidades es, en el fondo, solo sentido común reducido al cálculo; nos hace apreciar con exactitud lo que las mentes exactas sienten como una especie de instinto sin poder muchas veces dar razones para ello. No deja lugar a la arbitrariedad en la elección de opiniones y bando; y por su uso siempre se puede determinar la opción más ventajosa (Laplace, 1902, p. 196; traducción propia).

El arte de la conjetura de Bernoulli rebasó los límites en los que se había desarrollado la doctrina de las posibilidades y buscó brindar un método por el cual reconocer qué es razonable creer mediante el cálculo. El elemento fundamental de este pasaje consistió en concebir a todo grado de creencia como una parte de la certeza, en lugar de, como hizo Locke, entender dichos grados de creencia como algo cualitativamente distinto a la certeza propia del conocimiento.

Veamos brevemente el método que Bernoulli propuso para reducir a una medida común a cualquier probabilidad, entendida como el grado de creencia justificado por una serie de argumentos. El primer paso consistió en diferenciar los argumentos según su carácter probatorio. De este modo, Bernoulli advierte que algunos argumentos existen necesariamente y proveen evidencia en forma contingente, mientras que otros existen contingentemente y proveen evidencia necesariamente, y, finalmente, algunos existen y proveen evidencia en forma contingente. El mismo Bernoulli se explica con el siguiente ejemplo:

Hace mucho tiempo que mi hermano no me escribe. Dudo si culpar a su pereza, a sus negocios e incluso temo que haya muerto. Aquí, hay tres argumentos para explicar el cese de la correspondencia: la pereza, la muerte o sus negocios. El primero de ellos existe con certeza (ya que yo sé que mi hermano es perezoso), pero se demuestra verdadero solo de forma contingente ya que mi hermano puede escribirme a pesar de su pereza. El segundo existe solo en forma contingente (ya que mi hermano puede seguir con vida), pero se demuestra verdadero sin lugar a dudas ya que un hombre muerto no puede escribir. El tercero existe y provee evidencia en forma contingente ya que mi hermano puede tener negocios o no, y aun teniéndolos, no tienen por qué ser tales que le impidan escribirme (Bernoulli, 2005, p. 13; traducción propia).

Hecha esta distinción, pasa a aplicar la doctrina de las posibilidades a cada uno de estos tipos de argumento. La cuestión entonces se reduce a contar la cantidad de casos en que el hecho mencionado existe efectivamente y, además, prueba ser la razón por la cual sucedió el hecho de interés (ejemplo: mi hermano no me escribe). Bernoulli presenta las ecuaciones generales de la probabilidad de los tres tipos de argumentos mencionados del siguiente modo:

Existencia segura,
prueba contingente:

β.1+α.0β+α=ββ+α
Existencia contingente,
prueba segura:

1.b+0.αα+b=bb+α
Existencia y prueba
contingentes:

β/β+α.b+0.αb+α=β.bβ+α.b+α

Donde:

β

Cantidad de casos donde la prueba es la razón del hecho en cuestión

α

Cantidad de casos donde la prueba no es la razón del hecho en cuestión.

b

Cantidad de casos donde la prueba sugerida existe.

a

Cantidad de casos donde la prueba sugerida no existe.

Pero para poder aplicar estas ecuaciones, Bernoulli necesitó la siguiente suposición:

Supongo que todos los casos son igualmente posibles y pueden tener lugar con la misma facilidad. De lo contrario, deberían ser moderados suponiendo tantos casos como más fácil sea que sucedan. Por ejemplo, en lugar de considerar un caso que es un tercio más sencillo que suceda, voy a contar tres casos que puedan ocurrir con la misma sencillez que el resto (Bernoulli, 2005, p. 14; traducción propia).

Esta solución contiene, en germen, el principio de indiferencia que luego popularizaría Laplace. Lo que dice Bernoulli es que, para poder aplicar la doctrina de las posibilidades, primero debemos establecer todos los casos que el argumento contempla como posibles. El conjunto de todos los casos posibles implica certeza, ya que alguno de ellos debe suceder; por ende, los subconjuntos de casos en los que el argumento prueba ser conducente son una parte de dicha certeza. Para distribuir la certeza entre las partes, Bernoulli propone distribuirla equitativamente. En caso de que sepamos que algún resultado es más posible que otro, entonces debemos ponderarlo tantas veces como sea necesario hasta que seamos indiferentes con el resto.12

Nadie, ni siquiera Nicholas Bernoulli, responsable de la publicación póstuma del Ars Conjectandi de su tío y quien hizo sus aportes originales a la teoría matemática de la probabilidad, continuó con el método de distinguir entre pruebas necesarias o contingentes; pero la propuesta de J. Bernoulli de concebir la probabilidad como una fracción de la certeza sentó una semilla que crecería a lo largo del siglo XVIII y que continúa en vigor en la actualidad. Menos de un siglo más tarde, Laplace popularizaría esta comprensión de la probabilidad de forma definitiva. Desde entonces, sería difícil concebir a la probabilidad como una entidad no necesariamente numérica.

2.4. El principio de indiferencia: Laplace

Laplace descartó el complejo esquema de pruebas necesarias o contingentes de Bernoulli, pero conservó su comprensión de la probabilidad como una fracción de la certeza que puede ser medida por la razón matemática entre la cantidad de casos favorables sobre totales. Al dejar de lado el esquema de pruebas de Bernoulli, se rompió el lazo que unía a la naciente teoría matemática de la probabilidad con la comprensión pretérita de la probabilidad como un juicio razonable basado en las evidencias disponibles. La probabilidad pasó a ser una entidad metafísica que mide el grado de posibilidad de un evento determinado. Laplace la definió del siguiente modo:

La teoría del azar consiste en reducir todos los eventos del mismo tipo a un número de casos igualmente posible, es decir, en los que estemos igualmente indecisos con respecto a su existencia y al número de casos favorables del evento cuya probabilidad se busca establecer. La relación de este número a la de todos los casos posibles es la medida de esta probabilidad, que es entonces simplemente una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número de todos los casos posibles (Laplace, 1902, pp. 6-7; traducción propia).

Laplace, al igual que Bernoulli, trasladó la doctrina de las posibilidades al campo completo de la probabilidad. Esto requiere que se establezca un conjunto homogéneo de “eventos del mismo tipo” entre “los que estemos igualmente indecisos”; si no lo son “determinaremos primero sus posibilidades respectivas, cuya apreciación exacta es uno de los puntos más delicados de la teoría del azar” (Laplace, 1902, p. 11; traducción propia). El método de Laplace consiste en, primero, establecer las alternativas posibles y preguntarnos si tenemos alguna razón para creer que alguna de ellas es más posible que la otra. En caso de que no tengamos ninguna, pasamos a aplicar el principio de indiferencia y distribuimos la certeza entre las alternativas disponibles. Si, en cambio, tenemos razones para creer en la mayor posibilidad de alguna, debemos ponderarla hasta llegar a la indiferencia con el resto de las alternativas.

Laplace afirma que para aplicar “la teoría del azar” debemos reducir toda situación a un conjunto de alternativas sobre las que estemos “igualmente indecisos”. Pero, en realidad, lo que propone es reducirlas a una situación sobre la que seamos igualmente ignorantes, y supone que dicha ignorancia puede representarse correctamente mediante una distribución uniforme.

Quizás un ejemplo ayude a comprender las consecuencias de la aplicación de este principio. Supongamos que nos perdimos en un frondoso bosque en una región que no conocemos. Luego de caminar un tiempo entre las ramas encontramos un camino y lo empezamos a seguir hasta que súbitamente se bifurca en dos caminos alternativos. Ya que ignoramos el curso de los caminos y que carecemos de toda evidencia para juzgar cuál de los dos caminos nos conviene tomar, Laplace, haciendo uso del principio de indiferencia, dirá que razonamos rigurosamente si consideramos que la probabilidad de que cualquier camino sea el más conveniente es de 0.5. Locke, en lugar de apresurarse a dar una medida numérica a la probabilidad, hubiese advertido que no hay evidencias positivas para ninguna de las opciones; por ende, la decisión que tomemos no tiene a la probabilidad como fundamento.13

De este modo, Laplace reemplazó el viejo criterio de la evidencia positiva por su contrario, la ausencia de evidencias. De este modo, llegó a la sorprendente afirmación de que la ignorancia es la condición necesaria para la aplicación de la teoría matemática de la probabilidad

2.5. La probabilidad como límite de la frecuencia estadística

Hacia mediados de siglo XIX, la escuela de Laplace fue fuertemente descreditada. Desde el punto de vista de autores como J. S. Mill, Boole y Comte, la escuela de Laplace se había extralimitado en el alcance de sus deducciones al hacer uso de suposiciones que eran “una aberración del intelecto” (J. S. Mill, citado en Daston, 1995, p. 372; traducción propia). Boole se quejó del intento de los matemáticos franceses de extender el imperio de los números “incluso más allá de su antiguo reclamo de gobernar el mundo” (Boole, citado en Daston, 1995, p. 374; traducción propia). Bertrand, un reconocido matemático de mediados de siglo XIX, habló del “escándalo de la matemática” en relación con estos asuntos. Comte también denunció el abuso que los matemáticos franceses habían hecho del “crédito que justamente pertenece al verdadero espíritu matemático” al haber fantaseado “en un lenguaje algebraico pesado, sin agregar nada nuevo” (Comte, citado en Daston, 1995, p. 378; traducción propia).

Al rechazar los postulados de Laplace, los probabilistas del siglo XIX no retomaron las ideas de Locke, sino que se inclinaron hacia otra propuesta contenida en el Ars Conjectandi. Bernoulli había advertido que no siempre era posible aplicar el principio de indiferencia y propuso un método alternativo para estimar probabilidades. Cuando no es razonable suponer que conocemos las posibilidades de los distintos resultados que pueden acontecer, Bernoulli sugirió que podemos estimarlos mediante la observación de la frecuencia con la que sucedieron en el pasado.

Aquí, sin embargo, otra forma de lograr lo deseado se nos abre […] [:] lo que no podemos derivar a priori, al menos podemos obtenerlo a posteriori, es decir, podemos extraerlo de la observación repetida de los resultados de ejemplos similares (Bernoulli, 2005, p. 19; traducción propia).

Lo que Bernoulli propuso es que, en caso de que desconozcamos la posibilidad de un evento, por ejemplo, si es más posible que nazcan varones o mujeres, lo podemos estimar estudiando la frecuencia con que dicho fenómeno se repitió en el pasado. Esto implica concebir a toda una serie de acontecimientos como parte de un mismo conjunto homogéneo de instancias y entablar una relación contingente entre cada instancia individual y las características del conjunto. Esto es, esencialmente, la noción frecuentista que habría de volverse patente en el siglo XIX. Del mismo autor, J. Bernoulli, surgieron las ideas fundamentales tanto de la escuela clásica de Laplace, con su énfasis en el principio de indiferencia, como de la escuela frecuentista con su predilección por concebir la probabilidad como la frecuencia estadística en el límite.

En el momento en el que escribió J. Bernoulli, los registros estadísticos no eran abundantes;14 sin embargo, hacia fines del siglo XVIII y principios del XIX la recopilación de estadísticas por parte de los nacientes Estados nacionales comenzaron a ser comunes y la regularidad que mostraban en distintas regiones y momentos fue un hecho que sorprendió a todos (Landro y González, 2016; Porter, 1986; Stigler, 1986). Esto llevó crecientemente a la idea de que la probabilidad no debía ser vinculada con el juicio, sino con la existencia de proporciones estables en los fenómenos naturales y sociales. Esto implicaba una ruptura con la concepción lockeana y laplaceana de que la probabilidad es un grado de creencia. Para los frecuentistas de mediados del siglo XIX, no se trataba de comprender el proceso por el cual cedemos nuestro asentimiento a una proposición, sino de conocer la proporción en la que acontecen los fenómenos independientemente de nuestro juicio al respecto.

Uno de los primeros en marcar esta diferencia fue Cournot, que llamaría “posibilidad objetiva” a “la existencia de una relación que subsiste entre las cosas en sí mismas” y “probabilidades subjetivas” a “nuestra manera de juzgar o sentirnos, variando de un individuo a otro” (Cournot, 1843, p. 82; traducción propia). En este contexto, la probabilidad se convirtió prácticamente en un problema de las ciencias naturales, que Quetelet transfirió casi inmediatamente a las nacientes ciencias sociales mediante su phisique sociale.15

El primero en defender esta concepción de la probabilidad y contraponerla con la visión clásica fue Robert Leslie Ellis (1843). Pero no fue hasta el tratado de John Venn, Logic of Chance: An Essay on the Foundation and Province of the Theory of Probability (1876), que la interpretación frecuentista alcanzó una visión unificada de sus principios fundamentales. Las críticas de Keynes a la interpretación frecuentista están dirigidas a esta obra, ya que, cuando Keynes elaboró el Treatise, esta era la autoridad y referencia en el tema.16

La escuela frecuentista del siglo XIX conservó la comprensión inaugurada por J. Bernoulli de que toda probabilidad puede ser representada por una fracción, solo que ya no se trataba de los casos esperados y mediados por el principio de indiferencia, sino de proporciones que existen independientemente de nuestra cognición. Keynes, a principios del siglo XX, reacciona a esto y clama por recuperar el entendimiento lockeano de la probabilidad, el cual interpreta que es más amplio y puede alojar las interpretaciones alternativas de la escuela clásica y frecuentista dotándolas de límites conceptuales que eviten la confusión inaugurada por J. Bernoulli de que toda probabilidad es traducible a una razón matemática.

3. Keynes y su crítica a la probabilidad como una entidad numérica

3.1. Retrospectiva histórica

A lo largo del Treatise on Probability, Keynes desarrolla lo que él considera una teoría de la creencia racional. La creencia, a diferencia del conocimiento, admite grados, y la probabilidad, desde su perspectiva, es el grado de creencia racional que es permitido por la evidencia disponible (Carabelli, 1988; Keynes, 1921; O’Donnell, 1989). De este modo, decir que algo es probable es, para Keynes, equivalente a decir que existen buenas razones que llevan a creer que es verdadero, aunque no necesario. Por otro lado, decir que una conclusión es más probable que otra implica afirmar que las evidencias disponibles conducen a creer en una alternativa sobre la otra.

El concepto de “probabilidad” que Keynes defendió a principios del siglo XX mantiene una relación muy estrecha con el que tenían los filósofos de fines del siglo XVII y principios del XVIII. En este artículo presento dicho concepto mayormente desde la pluma de Locke, pero pueden rastrearse rasgos de este en otros autores de la época, como Leibniz, los autores de la Lógica de Port-Royal o incluso Hume. Como se vio, es un concepto que no es necesariamente medible en el rango del 0 al 1 y en donde la probabilidad siempre es pensada en el contexto de un juicio razonable sobre el poder probatorio de la evidencia disponible. Al retomar este concepto, Keynes buscaba subsanar lo que a sus ojos había sido un desvío desafortunado en el desarrollo de la teoría de la probabilidad. Dicho desvío se originó en la pretensión de J. Bernoulli de extender la doctrina de las posibilidades al campo completo de la teoría de la probabilidad. Tanto la escuela clásica de Laplace como la reacción frecuentista que la siguió (con Quetelet como uno de sus exponentes) empujaron el concepto a un estado de mayor confusión. El mismo Keynes, en los párrafos finales del Treatise, afirma:

Al sentar las bases del tema de la probabilidad, me he apartado mucho de la concepción que gobernaba las mentes de Laplace y Quetelet y ha dominado, a través de su influencia, el pensamiento del siglo pasado, aunque creo que Leibniz y Hume podrían haber leído lo que he escrito con simpatía (Keynes, 1921, p. 427; traducción propia).

Keynes anuncia con bastante claridad sus intenciones de trabajar, y desarrollar, una concepción de la probabilidad que estaba presente en tiempos de Leibniz y Locke y que se diferenciaba del enfoque matemático de J. Bernoulli. En el capítulo siete del Treatise, titulado “Retrospectiva histórica”, afirma que los autores de la Lógica de Port-Royal fueron “los primeros en tratar la lógica de la probabilidad en el modo moderno” (Keynes, 1921, p. 80; traducción propia) y advierte que Locke los siguió por este camino muy de cerca. Si bien, desde la perspectiva de Keynes, estas ideas estaban, sin reconocerlo, demasiado asociadas al principio de uniformidad de la naturaleza y Hume fue el primero en criticarlas en este sentido:17

[…] mientras tanto, el tema había caído en manos de los matemáticos, y un método de aproximación completamente nuevo estaba en curso de desarrollo […]. James Bernoulli, el verdadero fundador de la escuela clásica de probabilidad matemática […] basó muchas de sus conclusiones en un criterio bastante diferente: la regla que he denominado el Principio de indiferencia (Keynes, 1921, p. 81; traducción propia).

El nuevo principio establecía una regla para distribuir equitativamente la certeza entre alternativas que se sabían posibles, pero cuyas causas eran completamente ignoradas. Keynes reconoce que J. Bernoulli no desdeñó el criterio previo; de hecho, como se vio más arriba, el sistema propuesto por el matemático suizo buscaba basar toda probabilidad en argumentos, es decir, en la conexión argumental entre una cierta evidencia y la conclusión. Pero el intento de J. Bernoulli de traducir cualquier argumento a una proporción entre casos favorables sobre totales dependía del principio de indiferencia que luego Laplace adoptaría. Para Keynes, los propulsores de este método “se fijaron más en el lado negativo que en el positivo de su evidencia, y encontraron más fácil medir grados iguales de ignorancia que cantidades equivalentes de experiencia” (Keynes, 1921, p. 85; traducción propia).

De cualquier modo, desde el punto de vista de Keynes, a partir de Bernoulli la teoría de probabilidades tomó un nuevo camino, fruto de la aplicación del principio de indiferencia fuera del terreno en que Pascal y Huygens lo habían desarrollado.

En este Principio, extendido por Bernoulli más allá de los problemas de los juegos en los que mediante suposiciones tácitas Pascal y Huygens habían resuelto algunos ejercicios simples, pronto se dejó descansar todo el tejido de la probabilidad matemática. El viejo criterio de la experiencia, nunca repudiado, pronto quedó subsumido bajo la nueva doctrina (Keynes, 1921, p. 82; traducción propia).

Entonces, para Keynes, el concepto de probabilidad moderno, que originalmente había sido asociado con las evidencias de la experiencia, fue imperceptiblemente opacado por el abordaje matemático y el principio de indiferencia. Sin embargo, “el viejo criterio de la experiencia” permaneció presente y, en el siglo XIX, llevó a una reacción predecible “de las manos del empirismo”, que “en el estado de la filosofía en ese momento, tenía a Inglaterra como su hogar natural” (Keynes, 1921, p. 85; traducción propia). Ellis primero, y Venn más tarde, criticarían las suposiciones de los matemáticos y buscarían basar a la probabilidad enteramente en la experiencia. “La ignorancia”, diría Ellis, “no puede ser la base de ninguna inferencia” (Ellis, citado en Keynes, 1921, p. 85; traducción propia). Keynes comparte esta crítica, pero también se opone a la propuesta frecuentista, al punto de que algunos autores interpretaron el Treatise como un esfuerzo por desautorizar especialmente esta perspectiva (Baccini, 2004; Bateman, 1996).

Keynes efectivamente buscó desautorizar la perspectiva frecuentista, pero también al principio de indiferencia clásico basado en la ignorancia. Lo que se argumenta en este artículo es que, en realidad, la crítica de Keynes fue hacia el proyecto de J. Bernoulli de subsumir bajo el tratamiento de la doctrina de las posibilidades el campo completo de la probabilidad, lo cual implica una crítica tanto a la propuesta clásica como a la frecuentista, ambas siendo alternativas para alcanzar el mismo objetivo de tratar matemáticamente toda conjetura probable. De hecho, ambas fueron germinalmente postuladas en el Ars Conjectandi de Bernoulli.

3.2. La probabilidad y su medida

El objetivo fundamental de Keynes al recuperar la concepción pre-Bernoulli de la probabilidad es discutir su medida. Keynes considera que afirmar que una determinada proposición no es necesaria ni imposible no implica que pueda concebirse como una fracción de la certeza. Keynes no niega que, a veces, sea posible esta identificación y, consecuentemente, pueda beneficiarse de las ventajas del “cálculo de probabilidades”. Pero su objetivo, a diferencia de lo que sucedió desde J. Bernoulli en adelante, es “limitar, no extender, la doctrina popular” de que las “probabilidades son, en el sentido pleno y literal de la palabra, medibles” (Keynes, 1921, p. 20; traducción propia).

La mayoría de los autores que escribieron sobre probabilidad después de Keynes desecharon sus reflexiones en este punto y tendieron a presuponer la mensurabilidad de la probabilidad como una condición necesaria para su tratamiento (Carabelli, 1988). Esto es así tanto para los autores que insistieron en una comprensión frecuentista de la probabilidad (Von Mises, 1957) como para aquellos que adhirieron a una noción personalista o subjetivista de la probabilidad à laDe Finetti (1972; Savage, 1972). Incluso aquellos que defendieron la interpretación keynesiana de la probabilidad prefirieron desechar este punto del Tratado. El comentario de Braithwaite en la introducción a la edición de 1973 del Tratado es esclarecedora sobre este punto: “La tesis de Keynes de que algunas relaciones de probabilidad son mensurables y otras inconmensurables conduce a dificultades intolerables sin ninguna ventaja compensatoria” (Braithwaite, citado en Carabelli, 1988, p. 259; traducción propia).

Sin embargo, el Keynes maduro, post-Teoría general, no parecía haber descartado la relevancia de su concepción de la probabilidad como no necesariamente numérica. En una correspondencia de 1938 destacaría que “un punto central sobre el cual me gustaría llamar tu atención es que, en mi teoría de la probabilidad, las probabilidades […] no son numéricas […] [;] la sustitución por una medida numérica necesita discusión” (Keynes, citado en O’Donnell, 1989, p. 50; traducción propia).

Pasemos entonces a analizar algunos rasgos de la concepción keynesiana de la probabilidad que lo llevan a afirmar que las probabilidades no son necesariamente medibles y que, en algunos casos, ni siquiera son comparables en términos de mayor, menor o igual. Lo primero que es importante señalar es que Keynes rechaza una visión cardinalista de la probabilidad. Es decir, rechaza de cuajo la comprensión de la probabilidad como una entidad compuesta de unidades comunes que pueden contarse o medirse y luego ser comparadas. No existe una unidad a la que dos probabilidades puedan reducirse de un modo que permita luego su comparación. Cuando decimos que, de dos cuadros, el primero es más parecido a un Picasso y, por ende, más probable que pertenezca a dicho autor, no decimos lo mismo que cuando decimos que, de dos vasos llenos de agua, el primero está más cerca del litro. En el caso de los vasos, existe una unidad común que es medida y, en términos de esta, ordenada. Con los cuadros, el orden surge de considerar evidencias que los asimilan, bajo análisis, con la obra de Picasso. No se mide nada. En este caso, no tiene sentido decir que el primer cuadro es dos veces más similar a un Picasso que el segundo. Solo existe un juicio de similitud entre los objetos bajo escrutinio.

Para Keynes, en el caso de los grados de probabilidad, el orden es previo a la medida. Primero se dan los juicios que ordenan las conclusiones posibles respecto a su mayor o menor probabilidad, y luego, en algunos casos, se puede asignar una magnitud numérica que pueda ser comparable con otros grados de creencia racional también susceptibles de expresión numérica.

No se ha sugerido ningún método de cálculo, aunque sea impracticable. Tampoco tenemos ninguna indicación prima facie de la existencia de una unidad común a la que las magnitudes de todas las probabilidades sean naturalmente referidas. Un grado de probabilidad no está compuesto de ningún material homogéneo, y no es aparentemente divisible en partes de carácter similar entre sí (Keynes, 1921, p. 30; traducción propia).

Keynes dirá, en cambio, que “los así llamados grados o magnitudes de […] probabilidad, en virtud de los cuales uno es mayor y otro menor, en realidad surgen de un orden en el cual es posible posicionarlos” (Keynes, 1921, p. 35; traducción propia, cursivas en el original). En este sentido, se podría decir que Keynes es ordinalista.18

Es fundamental, para entender la concepción keynesiana de la probabilidad, dejar de lado el prejuicio de que la probabilidad es una entidad numérica. Para Keynes, si decimos que una proposición es probable en referencia a una determinada evidencia y no la comparamos con ninguna otra proposición, entonces solo estamos diciendo que, dada la evidencia, dicha proposición no es imposible, pero tampoco segura. Entonces, en ausencia de comparación, la percepción de una relación de probabilidad no es más que el juicio de que algo es posible sin ser por esto necesario.19 Solo cuando existe una comparación con otra relación de probabilidad puede hablarse de grados de creencia racional. Estos grados surgen necesariamente de un juicio de preferencia. De nuevo, el juicio antecede a la medida. Dadas dos relaciones de probabilidad que comparten la misma evidencia, (a/h1) y (b/h1),20 existe la posibilidad de ejercer un juicio de preferencia, por el cual podemos afirmar que, dada una cierta evidencia, “a” es más, menos o igual de probable que “b”. Cuando “decimos que una probabilidad es más grande que otra, esto significa precisamente que el grado de nuestra creencia racional en el primero caso yace entre21 la certeza y el grado de creencia racional en el segundo caso” (Keynes, 1921, p. 35; traducción propia, cursivas en el original). El juicio de preferencia que hace a la mayor probabilidad de una proposición sobre otra no dice nada más que esto.

Generalmente esto ha sido entendido en términos de que la probabilidad de la proposición (a/h1), es un número desconocido entre (b/h1)q2 y 1. Esta es, para Keynes, la posición de “Laplace y sus seguidores” que “argumentaron que toda conclusión tiene su lugar en el rango numérico de las probabilidades de 0 a 1, si solo pudiéramos conocerlo, y desarrollaron su teoría de las probabilidades desconocidas” (Keynes, 1921, p. 31; traducción propia, cursivas en el original). Esto, para Keynes, no es así. Existen “algunos casos donde no hay probabilidad para nada; o las probabilidades no pertenecen a una única escala de magnitudes medibles en términos de una unidad común” (Keynes, 1921, p. 31; traducción propia).

Keynes se pregunta: ¿qué queremos decir al hablar, como Laplace, de que una probabilidad es desconocida? ¿Nos referimos a un defecto en nuestra capacidad para percibir la relación de probabilidad que existe entre una conclusión y una determinada evidencia o a la ausencia de evidencia para conocer la verdadera probabilidad de una proposición determinada? De estas dos posibilidades, para Keynes, solo la primera es aceptable. Keynes admite que existen diferentes capacidades perceptivas a los fines de las relaciones lógicas. Esto es algo que tiene en común con Locke, solo que Keynes extiende estas de modo que también incluyan las relaciones de probabilidad. Para Keynes, “tan pronto como distinguimos entre el grado de creencia que es racional sostener y el grado de creencia actualmente sostenido, estamos, en efecto, admitiendo que la verdadera relación de probabilidad no es conocida por todos” (Keynes, 1921, p. 32; traducción propia).

Pero Keynes está convencido de que la mayoría de quienes sostuvieron la idea de probabilidades desconocidas en realidad lo hicieron en el segundo sentido mencionado más arriba.

[…] quienes sostuvieron que, cuando no podemos asignar una probabilidad numérica, esto no es porque no hay ninguna, sino simplemente porque no la conocemos, lo que realmente querían decir, estoy seguro, es que con alguna adición a nuestro conocimiento un valor numérico podría ser asignado, esto es lo mismo que decir que nuestra conclusión tendría una probabilidad numérica relativa a premisas levemente diferentes (Keynes, 1921, p. 33; traducción propia, cursivas en el original).

Es decir, para estos autores, cuando a una conclusión probable no se le puede asignar una medida, no es porque esta no exista, sino porque la desconocemos debido a la insuficiencia de las evidencias. Esto, para Keynes, es un error. No existe una “verdadera probabilidad” en un sentido absoluto. En todo caso, más evidencia puede conducirnos a conocer si la proposición es verdadera o falsa, pero no a su “verdadera probabilidad”. Toda probabilidad está relacionada con una determinada evidencia: nueva “evidencia nos daría una nueva probabilidad, no un conocimiento más completo de la anterior” (Keynes, 1921, p. 31; traducción propia). Al ser la probabilidad una relación, no se puede afirmar que algo es probable sin referencia al cuerpo de premisas que sostienen dicha probabilidad; es “inútil, por lo tanto, decir ‘b es probable’, al igual que decir ‘b es igual’, o ‘b es mayor’” (Keynes, 1921, p. 6; traducción propia), y podríamos continuar: “b es similar”, “b es posterior”, etc. Cuando decimos que algo es probable “a secas” lo hacemos:

[…] en aras de la brevedad, del mismo modo en que a veces decimos que un lugar está a tres millas de distancia, cuando en realidad nos referimos a que se ubica a tres millas de distancia de donde estamos situados […]. Ninguna proposición es en sí misma ni probable ni improbable, al igual que ningún lugar puede ser intrínsecamente distante […] (Keynes, 1921, p. 7; traducción propia).

Es usual decir que no conocemos la probabilidad de ganar en una rifa determinada, a menos que se nos informe sobre el número de rifas que se han repartido. Pero Keynes insiste en que, en realidad, cuando ignoramos el número de rifas repartidas, la probabilidad no existe para nosotros. No existe un grado de creencia racional que podamos construir sobre una lotería de la que no sabemos nada. Si por el medio que sea nos enteramos de que estamos en posesión de más rifas que cualquier otro jugador, aún sin conocer el número total de participantes, diremos que es probable que ganemos, incluso que es más probable que nosotros ganemos a que cualquier otro jugador gane y, sin embargo, aún no podremos asignar una medida numérica a la probabilidad de ganar. Una vez que obtenemos información sobre la cantidad total de rifas repartidas, una nueva probabilidad emerge, la cual, en este caso, sí puede ser reducida a una medida numérica exacta.

Otro ejemplo vinculado a la comprensión frecuentista de la probabilidad puede servir para entender la doble crítica de Keynes a estas corrientes que parten de suponer la existencia de una medida de la probabilidad. Podemos decir que no conocemos la probabilidad de tener un accidente en un tren hasta que conocemos las estadísticas de accidentes en trenes. Pero, para Keynes, la nueva información conduce a una relación de probabilidad que antes no existía porque no teníamos esa información dentro de nuestras premisas. En este caso, además, es evidente que esa relación de probabilidad a la que llegamos mediante la información de las estadísticas de accidentes no es definitiva y puede tener sentido continuar recabando evidencia para alcanzar relaciones de probabilidad sustentadas en más y mejores argumentos (Keynes trata esta dimensión de la probabilidad bajo el título de “peso de los argumentos”).22 Por ejemplo, podríamos considerar relevante conocer la experiencia del conductor del tren, el número de pasajeros que nos acompañan, el estado de las vías por las que vamos a viajar y del tren que vamos a usar. El proceso podría continuar hasta que nos quedemos con una clase cuyo único elemento es el viaje del tren específico que vamos a tomar. Del mismo modo que Heráclito nunca se bañaba en el mismo río, podemos llegar a la conclusión de que nunca tomamos el mismo tren.

3.3. Probabilidades no medibles

Pero, cuando no contamos con evidencia suficiente para acotar una relación de probabilidad dentro de límites numéricos específicos, ¿es siempre consecuencia de la ausencia de evidencia? Keynes cree que no. De hecho, para Keynes, son muy pocas las relaciones de probabilidad que pueden reducirse a una medida numérica. Una medida de este tipo implica, para Keynes, la posibilidad de establecer una relación cuantitativa con otro grado de creencia racional.

Al decir que no todas las probabilidades son mensurables, quiero decir que no es posible decir, de cada par de conclusiones sobre las cuales tenemos algún conocimiento, que el grado de nuestra creencia racional en uno mantiene alguna relación numérica con el grado de nuestra creencia racional en el otro (Keynes, 1921, p. 34; traducción propia).

Esto se cumple solo en casos muy particulares, lo cual no quita la utilidad práctica de la probabilidad, ya que, para Keynes, muchas veces podemos comparar en términos de mayor, menor o igual sin necesidad de reducir las probabilidades a medidas numéricas. La “analogía más cercana” (Keynes, 1921, p. 36; traducción propia) a la probabilidad, tal y como Keynes la concibe, es la de los juicios de similitud.23

A veces podemos tener alguna razón para suponer que un objeto pertenece a una categoría determinada si tiene puntos de similitud con otros miembros conocidos de la categoría (por ejemplo, si estamos considerando si un determinado cuadro debe ser atribuido a un cierto pintor), y cuanto mayor sea la similitud, mayor será la probabilidad de nuestra conclusión. Pero no podemos en estos casos medir el aumento; podemos decir que la presencia de ciertas marcas peculiares en un cuadro aumenta la probabilidad de que lo haya pintado el artista de quien se sabe que esas marcas son características, pero no podemos decir que la presencia de estas marcas lo hacen dos o tres o cualquier otro número de veces más probable de lo que hubiera sido sin ellas. Podemos decir que un objeto se parece más a un segundo objeto que a un tercero; pero rara vez tendrá sentido decir que es el doble de parecido (Keynes, 1921, p. 28; traducción propia, cursivas en el original).

Entonces podemos comparar dos cuadros de autores desconocidos y ordenarlos según cuál es más similar a un Picasso. De este modo podemos afirmar que uno es más probable que sea de Picasso que el otro. Muchas veces, esto es suficiente para conducirnos racionalmente en los asuntos de la vida cotidiana. Sin embargo, también existe la posibilidad de que dos grados de creencia racional distintos no sean ni siquiera comparables en términos de más, menos o igual.

Lo que Keynes afirma es que existen distintas escalas de preferencia que no siempre son comparables o, a veces, son solo parcialmente comparables. A veces podemos decir que, con base en la evidencia disponible, a es preferible a b, y también podemos decir que c es preferible a b, pero no podemos decir racionalmente, si a es preferible a c, indiferente, o c preferible a a. Esto se debe, en el esquema de Keynes¸ a que a y c no pertenecen a una misma escala y, por ende, no son comparables entre sí, pero b pertenece a dos escalas de preferencia distintas, una de las cuales comparte con a y otra con c. No pertenecer a una misma escala de preferencia, o como la llama Keynes, serie, implica la imposibilidad de establecer un juicio de preferencia entre las probabilidades.

Dada la estética y los detalles de un cuadro anónimo, podemos establecer si es más probable que sea una obra de Picasso o de Da Vinci; también podemos evaluar un ensayo anónimo y decir si se parece más a un texto de Marx o a uno de J. S. Mill. Pero no podemos decir que un cuadro anónimo es más parecido a un Picasso de lo que un ensayo anónimo se parece a un escrito de Marx. La probabilidad de que este cuadro anónimo sea de Picasso no es ni más grande, ni más chica, ni igual, a la probabilidad de que este texto anónimo sea de Marx. Entonces, “no es siempre posible decir que un grado de creencia racional en una conclusión es igual, mayor o menor que el grado de creencia en otra conclusión” (Keynes, 1921, p. 34; traducción propia).

Cuando comparamos la similitud de una pintura con la similitud de un escrito, estamos trabajando con dos escalas distintas que ordenar. Existe un orden dentro de cada escala, pero estas no son comparables entre sí. Para Keynes, esto es como preguntarse si un metro es mayor, menor o igual a un kilo. El hecho de que exista una escala ordenada no implica que esta sea comparable con otra escala ordenada.

Las dos escalas ordenadas son distintas porque ni la evidencia ni la conclusión tienen puntos en común. No se trata ni de un juicio de relevancia que compara distinta evidencia ante una misma conclusión, ni de un juicio de preferencia que compara dos conclusiones ante la misma evidencia, ni de una combinación de los anteriores. Se está comparando cosas que no tienen nada en común, lo cual anula la posibilidad de manifestar racionalmente una preferencia. Un individuo cualquiera puede inclinarse hacia cualquiera de estas dos conjeturas y ordenarlas coherentemente en una escala según sus propias preferencias, pero esta no encuentra justificación en ningún principio que pueda ser compartido o razonado y, por ende, dicho ordenamiento, propio de las perspectivas subjetivas de la probabilidad, es descartado por Keynes en el tratamiento del tema.

4. Reflexiones finales

El objetivo de este artículo fue reflexionar sobre el lugar que ocupa el Tratado keynesiano en la historia del concepto de “probabilidad”. De este modo, se mostró que, lejos de ser un tratado ajeno al tema de la probabilidad, hunde profundamente sus raíces en él y nos brinda lecciones que mantienen su vigencia aún en la actualidad.

La principal lección que se puede extraer del Tratado y que se discutió en este artículo atañe a la asociación acrítica de la probabilidad con una medida en la escala entre el 0 y el 1 y a su concepción como una rama de la matemática. Dicha asociación tuvo origen en el Ars Conjectandi de J. Bernoulli, que originalmente buscó conservar el vínculo de lo probable con las evidencias disponibles. Sin embargo, dicho vinculo fue rápidamente opacado por los problemas matemáticos que la doctrina de las posibilidades fue presentando. Las ideas de Laplace sobre las probabilidades desconocidas o la pretensión de un frecuentismo ingenuo de definir la probabilidad como una característica natural propia de un mundo que yace por fuera de nuestra cognición son ejemplos de posiciones que podrían enriquecerse a la luz de los argumentos que Keynes presenta en el Tratado.

El concepto de “probabilidad” que Keynes presentó en el Tratado tiene implicaciones importantes para el fundamento del método inductivo y la inferencia estadística. El desarrollo completo de dichas implicaciones será objeto de investigaciones ulteriores, pero vale notar que, a contramano del enfoque frecuentista, que parte de suponer la validez de estos métodos para estimar probabilidades (entendidas como el límite de la frecuencia estadística de una serie o colectivo), Keynes busca constituir a la probabilidad (entendida como aquello que es razonable creer a la luz de las evidencias disponibles) en el fundamento de estos métodos. Esto es algo que comparte con el enfoque bayesiano, pero que, a diferencia de este, prescinde de otorgar un tratamiento numérico a la evolución de los grados de creencia, sean subjetivos u otorgados a priori por una regla o principio ad hoc, como el principio de indiferencia.

Desde el punto de vista de la construcción de modelos conceptuales que representan el comportamiento racional de un individuo o conjunto de individuos en un contexto de incertidumbre, la concepción keynesiana de la probabilidad también ofrece horizontes de análisis más amplios que la clásica asociación entre incertidumbre y una distribución de probabilidad con una estructura preestablecida. Nociones como la de “incertidumbre fundamental” (Dequech, 1997) o “incertidumbre extendida” (Bookstaber y Langsam, 1985) pueden encontrar un valioso sustento en las reflexiones del Tratado keynesiano.

En conclusión, Keynes nos recuerda que la probabilidad, como aquello que es razonable creer a la luz de las evidencias disponibles, es más antigua que la doctrina de las posibilidades y que, antes de que esta última se fusionara con la primera, hubo filósofos de la altura de Locke, Leibniz y Pascal que se dedicaron a reflexionar sobre su fundamento. No cabe duda del enorme progreso que ha tenido la teoría matemática de la probabilidad y las herramientas y métodos que ha brindado en el campo de la inferencia estadística a lo largo del siglo XX y en lo que va del XXI. Sin embargo, conocer esta tradición de pensadores y la elaboración y actualización keynesiana de sus ideas a principios de siglo XX enriquece nuestra concepción de lo probable y la comprensión de los alcances y límites de los métodos y conclusiones científicas que se valen de la probabilidad para validar sus hipótesis o construir sus modelos.

Referencias bibliográficas

Arnauld, A. y Nicole, P. (1662). Logic, or The Art of Thinking: Being The Port-Royal Logic. T.S. Baynes (trad.). Murray and Gibb. [ Links ]

Baccini, A. (2004). High Pressure and Black Clouds: Keynes and the Frequentist Theory of Probability. Cambridge Journal of Economics, 28(5), 653-666. DOI: https://doi.org/10.1093/cje/beh030. [ Links ]

Bateman, B.W. (1996). Keynes’s Uncertain Revolution. University of Michigan Press. [ Links ]

Bernoulli, J. (1966). Part IV: The Art of Conjecturing. B. Sung (trad.). Harvard University Press. [ Links ]

______ (2005). On the Law of Large Numbers. The Art of Conjecturing; Part Four showing The Use and Application of the Previous Doctrine to Civil, Moral and Economic Affairs. Sheynin.de. O. Sheynin (trad.). URL: http://www.sheynin.de/download/bernoulli.pdf. [ Links ]

Bookstaber, R. y Langsam, J. (1985). On the Optimality of Coarse Behavior Rules. Journal of Theoretical Biology, 116(2), 161-193. [ Links ]

Brighton, H. y Gigerenzer, G. (2012). How Heuristics Handle Uncertainty. En P.M. Todd y G. Gigerenzer (eds.), Ecological Rationality: Intelligence in the World. (pp. 33-60). Oxford University Press. [ Links ]

Brown, R. (1987). History Versus Hacking on Probability. History of European Ideas, 8(6), 655-673. DOI: https://doi.org/10.1016/0191-6599(87)90163-X. [ Links ]

Carabelli, A.M. (1988). On Keynes’s Method. Palgrave Macmillan. [ Links ]

Coumet, E. (2000). La teoría del azar, ¿nació por azar? Empiria. Revista de Metodología de Ciencias Sociales, 3, 209-241. [ Links ]

Cournot, A.A. (1843). Exposition de la théorie des chances et des probabilités. L. Hachette. [ Links ]

Daston, L. (1995). Classical Probability in the Enlightenment. Princeton University Press. [ Links ]

Davidson, P. (2009). Great Thinkers in Economics. John Maynard Keynes. Palgrave Macmillan. [ Links ]

De Finetti, B. (1972). Probability, Induction, and Statistics. John Wiley & Sons. [ Links ]

De Moivre, A. (1756). Doctrine Of Chances: or, A Method of Calculating the Probabilities of Events in Play. Chlesea Publishing Company. [ Links ]

Dequech, D. (1997). Uncertainty in a Strong Sense: Meaning and Sources. Economic Issues, 2, 21-44. [ Links ]

______ (2011). Uncertainty: A Typology and Refinements of Existing Concepts. Journal of Economic Issues, 45(3), 621-640. [ Links ]

Gillies, D. (2000). Philosophical Theories of Probability. Psychology Press. [ Links ]

Hacking, I. (2006). The Emergence of Probability: A Philosophical Study of Early Ideas About Probability, Induction, and Statistical Inference. Cambridge University Press. [ Links ]

Huygens, C. (1714). De ratiocinis in ludo aleae, or The value of all chances. S. Keimer. [ Links ]

Kendall, M.G. (1956). Studies in the History of Probability and Statistics. II. The Beginnings of a Probability Calculus. Biometrika, 43(1), 1-14. [ Links ]

Keynes, J.M. (1921). A Treatise on Probability. Macmillan and Company. [ Links ]

______ (2003). Teoría general de la ocupación, el interés y el dinero. R. Hornedo (trad.). Fondo de Cultura Económica. [ Links ]

Landro, A. (2010). Acerca de la probabilidad. Parte I: La interpretación del concepto de azar y la definición de probabilidad. Ediciones Cooperativas. [ Links ]

______ (2014). El concepto de probabilidad en la obra de Lord Keynes. Revista de Investigación en Modelos Matemáticos aplicados a la Gestión y la Economía, 1(1), 139-153. URL: http://www.economicas.uba.ar/wp-content/uploads/2016/04/8-El-concepto-de-probabilidad-en-la-obra-de-Lord-Keynes.-Alberto-H.-Landro.pdf. [ Links ]

Landro, A. y González, M. (2016). Acerca del problema de Bernoulli y la determinación del verdadero valor de una probabilidad. Ediciones Cooperativas. [ Links ]

Laplace, P.S. (1902). A Philosophical Essay on Probabilities. F.W. Truscott y F.L. Emory (trads.). DOI: https://doi.org/10.1017/CBO9781107415324.004. [ Links ]

Locke, J. (1999). Ensayo sobre el entendimiento humano. E. O´Gorman (trad.). Fondo de Cultura Económica. [ Links ]

Maistrov, L.E. (1974). Probability Theory: A Historical Sketch. Academic Press. [ Links ]

McCann, C.R. (1994). Probability Foundations of Economic Theory. Routledge. [ Links ]

Mill, J.S. (1882). A System of Logic, Ratiocinative and Inductive. Harper & Brothers. [ Links ]

O’Donnell, R. (1989). Keynes: Philosophy, Economics and Politics: The Philosophical Foundations of Keynes’s Thought and Their Influence on His Economics and Politics. Palgrave Macmillan. [ Links ]

______ (1991). Keynes on Probability, Expectations and Uncertainty. En Keynes as Philosopher-Economist. (pp. 3-60). Springer. [ Links ]

Owen, D. (2007). Locke on Judgement. En L. Newman (ed.), The Cambridge Companion to Locke´s “Essay Concerning Human Understanding”. (pp. 406-435). Cambridge University Press. [ Links ]

Porter, T.M. (1986). The Rise of Statistical Thinking. 1820-1900. Princeton University Press. [ Links ]

Ramsey, F.P. (1931). Truth and Probability. En R.B. Braithwaite (ed.), The Foundations of Mathematics and Other Logical Essays. (pp. 156-198). Harcourt, Brace and Company. [ Links ]

Runde, J. (1990). Keynesian Uncertainty and the Weight of Arguments. Economics and Philosophy, 6(02), 275-292. [ Links ]

______ (1994). Keynes After Ramsey: In Defence of A Treatise on Probability. Studies in History and Philosophy of Science Part A, 25(1), 97-121. DOI: https://doi.org/10.1016/0039-3681(94)90022-1. [ Links ]

Savage, L. (1972). The Foundations of Statistics. Dover. [ Links ]

Schüssler, R. (2016). Probability in Medieval and Renaissance Philosophy. En E.N. Zalta (ed.), The Stanford Encyclopedia of Philosophy. URL: https://plato.stanford.edu/archives/win2016/entries/probability-medieval-renaissance/ [ Links ]

Shackle, G.L.S. (1970). Expectation Enterprise and Profit. The Theory of the Firm. Routledge. [ Links ]

______ (1976). Epistémica y economía: crítica de las doctrinas económicas. F. González Aramburo (trad.). Fondo de Cultura Económica. [ Links ]

Stigler, S.M. (1986). The History of Statistics: The Measurement of Uncertainty Before 1900. Harvard University Press. [ Links ]

Todhunter, I. (1865). A History of the Mathematical Theory of Probability from the Time of Pascal To That of Laplace. Macmillan and Company. [ Links ]

Venn, J. (1876). The Logic of Chance: An Essay on the Foundations and Province of the Theory of Probability. Macmillan and Company. [ Links ]

Von Mises, R. (1957). Probability, Statistics, and Truth. Dover. [ Links ]

1 En 2021 se cumplieron cien años de la publicación del Tratado sobre la probabilidad de Keynes.

2 La heterodoxia keynesiana en el campo de la probabilidad se replicaría años más tarde en el campo económico.

3 Cabe aclarar que, en el momento en que Keynes trabajó sobre el Tratado, la corriente subjetivista aún no había sido exhaustivamente elaborada y no era realmente una alternativa interpretativa para la probabilidad. De hecho, la primera formulación de esta se debe a la crítica de F. P. Ramsey (1931) al Tratado de Keynes en 1926.

4 Tal es el caso del concepto de “incertidumbre fundamental”, de amplia difusión entre economistas (Carvalho, 1988; Dequech, 1997 y 1999; Lawson, 1988; Runde, 1990), o de “incertidumbre extendida”, con aplicaciones en ciencias naturales (Bookstaber y Langsam, 1985; Brighton y Gigerenzer, 2012).

5 Schuessler señala que existen mayores complicaciones que las que capta Hacking (2006) en la identificación del sentido de la palabra “probabilidad” en la Escolástica y en el pasaje a la moderna sociedad comercial. Desde Aristóteles, y ciertamente a lo largo de la Escolástica, se puede encontrar la palabra “probabilidad” utilizada para hacer referencia a aquello que sucede “la mayoría de las veces, aunque no todas las veces”, es decir, aquello que sucede con mayor frecuencia (Brown, 1987). Sin embargo, el sentido que Hacking enfatizó es el más común en el período y es, además, el que hasta cierto punto se perdió tras la consolidación del sentido moderno de la probabilidad.

6 Los contratos aleatorios son una especie dentro del género de contratos mercantiles que surgen del acuerdo voluntario entre individuos libres. Lo característico de los contratos aleatorios es que las condiciones que se pactan están sujetas a algún acontecimiento incierto. Los juegos de azar son una subespecie de contratos aleatorios, los cuales abarcan además contratos de seguros, anualidades, empresas comerciales, entre otros. (Daston, 1995).

7 Partiendo de esta solución, Pascal continúa razonando hacia atrás sobre otras posibilidades de reparto más complejas. Cuando el juego está 2 a 0, corresponden 56 pistolas a quien va ganando y 8 a quien va perdiendo. Finalmente, si el partido se detiene con el marcador 1 a 0, al jugador que va ganando le corresponden 44 pistolas y 20 a quien va perdiendo (Todhunter, 1865).

8 Schüssler, (2016) señala que la noción de “equiprobabilidad” fue fundamental para desarrollar la doctrina de las posibilidades y comenzó a ser común recién a partir del siglo XVI. Durante el auge del pensamiento escolástico era frecuente la mención de la mayor o menor probabilidad de una opinión, no así de su igualdad. Para Schüssler, el desarrollo de esta noción precedió y fue de hecho un paso fundamental para el desarrollo de la doctrina de las posibilidades.

9 El tratamiento que Locke hace de la probabilidad esta condensado en los capítulos XIV-XX del cuarto libro del Ensayo sobre el entendimiento humano.

10 Si bien existe cierta controversia sobre la identidad de sus autores, la mayoría de los especialistas coinciden en señalar que fueron Antoine Arnauld y Pierre Nicole (Daston, 1995; Hacking, 2006; Landro, 2010). A pesar de que no existen pruebas fehacientes, es probable (en el sentido de Locke) que Pascal haya colaborado en la redacción de los capítulos vinculados a la teoría de probabilidades.

11 La parte I del Ars Conjectandi reproduce textualmente De ratiociniis in ludo alae de Hyugens, sumando notas valiosas y proponiendo soluciones a los problemas planteados al final de este. La parte II trata sobre el análisis combinatorio y la parte III presenta nuevos problemas vinculados a los juegos de azar. La parte IV, subtitulada “El uso y aplicación de la doctrina previa en asuntos civiles, morales y económicos”, es de donde se extrajo la presente cita y contiene los aportes de mayor originalidad.

12 Por ejemplo, la pereza de nuestro hermano puede tener como resultado dos situaciones: que nos escriba (α), o que no nos escriba (β). Si no tenemos razones para creer que es más fácil que suceda una que otra, entonces, aplicando la primera de las ecuaciones propuestas por J. Bernoulli, tenemos: β = 1 y α = 1, y la probabilidad de que no nos escriba debido a su pereza es igual a 1/2. Si suponemos que la pereza de nuestro hermano es grande y llevará a que no nos escriba en dos de cada tres oportunidades, entonces tendremos: β = 2 y α = 1, y la probabilidad que no nos escriba debido a su pereza igual a 2/3.

13 John Stuart Mill, quien fue muy crítico del principio de indiferencia de Laplace, se reiría de aquellos que “habiéndose familiarizado con las difíciles fórmulas que el álgebra ofrece para la estimación de oportunidades bajo suposiciones de un carácter complejo, prefieren emplear esas fórmulas para calcular cuáles son las probabilidades para una persona medio informada, antes que buscar medios para estar mejor informado” (Mill, 1882, p. 383; traducción propia).

14 Existen antecedentes importantes para la vinculación entre probabilidad y estadística. Entre los más importantes está el libro Natural and Political Observations upon the Bills of Mortality publicado por John Graunt el mismo año en que se publicó La lógica o el arte de pensar de Port-Royal. Otros pensadores que dedicaron sus esfuerzos a encontrar un hilo conductor entre los registros estadísticos y la probabilidad durante los siglos XVII y XVIII fueron William Petty, Johannes Hudde, Johan De Witt, Huygens, los sobrinos de J. Bernoulli (Nicholas Bernoulli y Daniel Bernoulli) y Abraham De Moivre, entre otros (Hacking, 2006; Landro, 2010).

15 “[…] cualquier fenómeno que concierne a la especie humana, considerado en masa, pertenece al dominio de los hechos físicos; cuanto mayor es el número de individuos, más se sumerge la voluntad individual bajo la serie de hechos generales que dependen de las causas generales según las cuales existe y se conserva la sociedad” (Quetelet, citado en Porter, 1986, p. 52; traducción propia).

16 En la actualidad se suele identificar la obra de Richard von Mises, Probability, Statistics and Truth (1957), como la mejor presentación de las ideas frecuentistas. Debe notarse que Von Mises publicó una primera versión de su teoría en 1919 (dos años antes de que se publicara la versión definitiva del Treatise de Keynes), pero recién en 1928 la primera edición de su tratado sistemático. Keynes no conocía esta obra ni las ideas de Von Mises mientras trabajó en el Treatise. Como se verá a continuación, las ideas de Venn y Von Mises tienen muchos puntos en común, aunque también hay diferencias importantes entre ellas. En especial sobre la relevancia del razonamiento matemático y la constitución de las series o colectivos a las que referir las instancias individuales.

17 “Hume, de hecho, señala que, si bien es cierto que la experiencia pasada da lugar a la anticipación psicológica de algunos acontecimientos sobre otros, no se ha dado ninguna base para la validez de esta anticipación superior” (Keynes, 1921, p. 81; traducción propia).

18 Pero se debe ser cuidadoso y distinguir la propuesta de Keynes de otras visiones ordinalistas, especialmente de aquella desarrollada por la corriente personalista à la De Finetti. Como explica O’Donnell (1989), la visión ordinalista de Keynes no está emparentada con esta dado el sentido necesariamente relacional que da a la probabilidad y su distinción entre grados de creencia racional y grados de creencia a secas.

19 Aquí vale la pena notar que juicios de este tipo son muy raros; en general, se suele considerar la probabilidad de una proposición considerándola cuanto menos en relación a su contraria.

20 Léase la probabilidad de la proposición “a” dada la evidencia “h١” y la probabilidad de la proposición “b” dada la evidencia “h١”. En este punto se adopta la nomeclatura utlizada por Keynes en el Treatise.

21 El operador lógico entre es herencia del pensamiento russelliano en Principia Mathematica (O’Donnell, 1989).

22 Para mayor detalle en el análisis del concepto de “peso de los argumentos” de Keynes, cfr. Runde (1990).

23 “Esta similitud merece una atención especial, ya que la analogía entre órdenes de similitud y probabilidad es tan grande que su aprensión será de gran ayuda para las ideas que deseo transmitir” (Keynes, 1921, p. 36; traducción propia).

Recibido: 15 de Septiembre de 2020; Aprobado: 12 de Noviembre de 2020

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons