SciELO - Scientific Electronic Library Online

 
vol.10 número19Posguerra, realismo figural y nostalgia. La experiencia de MalvinasEl conocimiento humano y el progreso infinito del razonamiento índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Signos filosóficos

versión impresa ISSN 1665-1324

Sig. Fil v.10 n.19 México ene./jun. 2008

 

Artículos

 

La lógica IF y los fundamentos de las matemáticas

 

Max Fernández de Castro*

 

* Profesor–investigador del Departamento de Filosofía, Universidad Autónoma Metropolitana–Iztapalapa, xamf_mx@yahoo.com

 

Recepción: 2 de julio de 2007
Aceptación: 12 de diciembre de 2007

 

Resumen

El objetivo del presente artículo es someter a escrutinio la afirmación de Hintikka según la cual la verdadera lógica elemental no es la clásica sino la lógica IF y, en consecuencia, el marco en que ordinariamente son pensadas las relaciones entre lógica y matemáticas es por completo inadecuado. Para ello, primero se exponen las funciones o características que una lógica debe poseer y, en segundo lugar, se presentan las ideas constitutivas de la lógica IF. Más adelante se demuestran algunas de las propiedades matemáticas de la lógica IF y se analizan las complejidades a que da lugar la negación en este sistema. Por último, se ofrecen algunas razones para matizar o poner en duda las conclusiones que Hintikka extrae de su propuesta para la filosofía de las matemáticas.

Palabras clave: fundamentos, lógica clasica, lógica IF, matemáticas.

 

Abstract

The aim of this paper is to scrutinize Hintikkas's affirmation wich claims that true elemental logic is not classical logic, but IF logic. Thus, the framework in which the relation between logics and mathematics is ordinarily thought is completely inadequate. In order to achieve this goal, we expose the functions or characteristics that a logic must have, and secondly, we present the constitutive ideas of the IF logic. Further ahead we demonstrate some of the mathematical properties of the IF logic and analyze the complexities which result from the negation in this system. At the end, we offer some reasons to contextualize and to question the conclusions which Hintikka obtains from his proposal for a philosophy of mathematics.

Key words: grounds, classical logic, IF logic, mathematics.

 

Hace algunos años, Gabriel Sandu y Jaakko Hintikka desarrollaron un sistema semántico y sintáctico para la interpretación y el uso de los cuantificadores y conectivos lógicos al que denominaron Independence friendly logic y al que me referiré como Lógica IF. Este sistema poseé interesantes propiedades matemáticas que lo hacen ya de suyo digno de estudio. Sin embargo, Hintikka en un texto de 1998, The Principles of Mathematics Revisited, ha propuesto que la lógica IF es la parte básica de la lógica, la verdadera lógica elemental o el núcleo de la lógica. Según él, la aceptación de este punto de vista conlleva o implica la ruptura completa del marco conceptual en que ordinariamente son pensadas las relaciones entre lógica y matemáticas. Por ello, a continuación, además de esbozar de manera breve, y espero clara, las características técnicas del sistema propuesto por los dos autores mencionados, quiero exponer algunas de las afirmaciones de Hintikka acerca de las implicaciones filosóficas a que debería dar lugar la introducción de la lógica IF para someterlas a posterior discusión.

El ensayo está dividido en cinco secciones. La primera establece un marco general que permite la evaluación y comparación de diferentes lógicas. Allí se enumeran los principios de la filosofía de la lógica que Hintikka pretende derribar con su propuesta. La segunda sección presenta, en tres partes, las ideas centrales y constitutivas de la lógica IF. La tercera establece y demuestra, en algunos casos, las principales propiedades matemáticas de la lógica IF. En el cuarto apartado se analizan las peculiaridades de la negación en la lógica IF y se discute brevemente la lógica IFE, que es una extensión de la primera. En la parte final presento algunas conclusiones generales.

 

¿QUÉ ES O QUÉ DEBE SER LA LÓGICA?

Es sólito utilizar la palabra lógica en una acepción tal que admite el plural. Se habla de lógica modal, intuicionista, paraconsistente, etcétera. Sin embargo, hay otra acepción de la palabra que no consiente tan fácilmente el plural; por ejemplo, el logicismo, la doctrina en donde la matemática es reductible a la lógica, supone en su formulación y en su defensa una idea previa de lo que es la lógica. Es en este sentido que se aseveraba que el axioma del infinito no era un principio lógico y que Willard Van Orman Quine y Georg Boolos han debatido en torno a si la lógica de segundo orden es o no parte de la lógica. La determinación extensional del concepto lógica, es decir, la determinación de qué comprende este concepto, supone también una idea previa de lo que es o debe ser la lógica, sólo que esta idea no siempre es precisada a través de una definición, sino que permanece implícita y sus rasgos centrales, según las diferentes posiciones, pueden ser deducidos de la discusión misma. ¿Cuáles son estos rasgos? Sería muy difícil dar una respuesta concisa. Algunos autores han propuesto ciertas características que la lógica debe tener y ciertos fines que debe cumplir. Entre ellos están los siguientes:

(1) La lógica debe suministrar una explicación, en el sentido carnapiano de la palabra, de la noción intuitiva de argumento correcto. Es decir, la lógica proporcionará un concepto preciso de argumento correcto que sea de aplicación sencilla y corresponda lo mejor posible a nuestra noción ordinaria de lo que es la corrección de argumentos. Más precisamente, la lógica proveerá un criterio lo más simple y algorítmico posible que, aplicado a la paráfrasis de un argumento del lenguaje ordinario, determine su validez sin apartarse demasiado de nuestras intuiciones.

(2) La lógica debe proveer un lenguaje en el que sea posible parafrasear los enunciados del discurso científico, de tal manera que las ambigüedades propias de dichos enunciados desaparezcan en su traducción al lenguaje lógico. Este lenguaje de paráfrasis debe ser lo más expresivo posible, es decir, tolerar la traducción de la mayor cantidad posible de enunciados del lenguaje científico. En el mejor de los casos, toda la ciencia debería poderse expresar en el lenguaje lógico. Aún más, para Gottlob Frege, la lógica debe proporcionar el lenguaje del pensamiento, donde sea posible expresar sin ambigüedad todo pensamiento susceptible de aseveración. En ese sentido, la lógica debe ser universal. De acuerdo con algunos autores, esta tarea debe subordinarse a la anterior: la lógica proveé un lenguaje en que parafrasear los argumentos del lenguaje científico u ordinario para determinar su validez. El lenguaje de paráfrasis sería, en tal caso, un instrumento entre otros con que el lógico resuelve su tarea fundamental, a saber, lo enunciado en (1).

(3) La lógica debe ser formal. La preservación de la verdad de premisas a conclusión es inmune al reemplazo del vocabulario no lógico de un argumento.

(4) Otra función de la lógica, menos advertida, pero igualmente dominante en la filosofía contemporánea, es la siguiente: el lenguaje de la lógica forma parte del criterio para determinar los compromisos ontológicos de una teoría, es decir, para determinar qué objetos supone aquel que defiende una teoría.1

(5) La lógica deber tener el menor número posible de compromisos ontológicos. Esto resulta de los tres puntos anteriores. Puesto que la lógica sólo proveé un criterio para determinar la corrección de argumentos de cualquier otra ciencia, sus verdades (que son codificaciones de modos de inferencia) no implican, por sí solas, la existencia de ningún objeto. Es cierto que, además de los enunciados universalmente válidos, se suele comprender dentro de la provincia de la lógica el estudio y caracterización de ese conjunto de enunciados, lo que a veces se ha llamado metalógica. Es tal vez por un prurito de economía ontológica que autores como Quine2 han pedido que la lógica, en este sentido más amplio de la palabra, tenga la menor carga ontológica posible.

(6) La lógica debe ser monotónica, en el sentido en que una deducción no aumenta nunca el contenido informativo de las premisas.

(7) Relacionado con los primeros dos puntos, la lógica debe modelar la sintaxis y la semántica de un fragmento o incluso de todo (Montague, 1974) el lenguaje ordinario. En efecto, una inferencia del lenguaje ordinario sólo es correcta o incorrecta en relación con un análisis sintáctico, mismo que proveé la lógica con su lenguaje de paráfrasis.

(8) La lógica debe ser simple, es decir, accesible (desde un punto de vista epistemológico) a todo ser humano. Me refiero aquí a las verdades de la lógica, no a su estudio metateórico. Esta exigencia deriva de (1).

(9) Las fronteras de la lógica no pueden ser trazadas ad hoc o por peculiaridades culturales.

Considero que es conveniente agregar que las tesis (1), (2), (3), (4), (7), (8) y (9) han sido ampliamente compartidas y defendidas, mientras que (5) y (6) sólo han sido sostenidas por algunos autores. Por ejemplo, Frege sostuvo que la lógica tiene compromisos ontológicos y que una deducción puede aumentar el contenido informativo de las premisas,3 es decir, no sostuvo ni (5) ni (6).

Entre los diversos sistemas que han sido propuestos para el cumplimiento de estas funciones, o de algunas de ellas, el que más ha gozado del favor de los filósofos es la llamada lógica clásica de primer orden. Una de las razones en favor de esta elección es la idea de que el lenguaje de la lógica de primer orden es un fragmento del lenguaje ordinario una vez que éste ha sido depurado de sus ambigüedades y de sus aspectos menos afines a la tarea científica.4 Otra razón es la simplicidad de la lógica de primer orden expresada en teoremas clásicos como el de compacidad, el de Löwenheim–Skolem y el de completud. Ahora bien, esta elección de la lógica clásica de primer orden como la lógica, también está fundada en razones de conveniencia práctica y algunos de los que la han defendido aceptarían una elección diferente si el sistema propuesto supusiera una ventaja en la evaluación ponderada de los diferentes factores a los que he mencionado. Por ejemplo, la lógica de segundo orden sobrepasa a la de primer orden en capacidad expresiva, pero se ve aventajada por ésta en simplicidad y neutralidad, entre otras cosas. Hintikka tratará de mostrar que en una evaluación ponderada, que tome en cuenta las diversas funciones que la lógica debe satisfacer, la lógica IF supera por mucho a la lógica clásica, o bien, que aquellos factores en que se da la situación inversa no tienen la importancia que suele atribuírseles. Aunque en la defensa de su propuesta hará alusión a varios de los requerimientos de la lógica que acabo de enumerar, sólo enuncia explícitamente dos funciones básicas (1996: cap. 1) que esta disciplina debe cumplir, ambas en relación con las matemáticas. La primera es la función deductiva. Ésta es la tarea de codificar las formas de razonamiento a que ya hemos hecho mención, sólo que se refiere específicamente al razonamiento matemático. La otra función, menos atendida según él, es la función descriptiva. La lógica debe proveer un lenguaje que exprese con precisión los conceptos ordinariamente empleados por los matemáticos. En esta segunda función el lenguaje de la lógica IF es muy superior al de la lógica clásica.

Hay una serie de principios básicos en filosofía de las matemáticas que se derivan de la elección de la lógica clásica de primer orden como la lógica. Hintikka (1996: VIII y IX) asevera que se trata de mitos que la adopción de la lógica IF rebate. Veremos más adelante cómo pretende refutar cada uno de ellos:

(0) La lógica es básicamente la lógica de primer orden clásica.

(1) La lógica sólo puede tratar su propia sintaxis, pero no su semántica. La semántica de un lenguaje de primer orden L sólo puede tratarse en otro lenguaje más poderoso que L. La semántica y la teoría de modelos son parte de las matemáticas. La completud es una propiedad de la lógica. Las teorías matemáticas no triviales son inevitablemente incompletas.

(2) "La lógica de primer orden es incapaz de tratar los conceptos y modos de inferencia más característicos de las matemáticas, tales como inducción matemática, infinito, equicardinalidad, buen orden, [..] Por tanto, el pensamiento matemático requiere esencialmente de entidades de orden superior de algún tipo u otro, sean clases, conjuntos, relaciones, predicados, etc. en el sentido fuerte de requerir cuantificación sobre ellas [..] Por ello, es iluminador formular las teorías matemáticas en términos de la teoría de conjuntos, que se vuelve así el marco idóneo para esas teorías" (Hintikka, 1996: VIII).

(3) "La negación es un simple concepto que consiste en una inversión de los valores de verdad" (Hintikka, 1996: 9).

(4) Un principio fundamental de la semántica es el principio de composicionalidad, según el cual los valores semánticos de una expresión son funciones de los valores semánticos de sus partes constitutivas.

(5) El teorema de la incompletud de Kurt Gödel impone límites al poder expresivo de la lógica.

(6) Una definición de verdad no puede ser una explicación de lo que hace a un enunciado verdadero, sino sólo proveer una correlación entre enunciados y hechos.

 

LAS IDEAS CENTRALES DE LA LÓGICA IF

a) Una semántica lúdica

Dos son las innovaciones centrales que dan lugar a la lógica IF. La primera es una definición de verdad que pretende suplantar a la de Alfred Tarski y superar la limitación señalada en (6); la cual está formulada en términos de la teoría de juegos. Daré una versión resumida: sea F un enunciado de primer orden en forma normal de negación (es decir, tal que en el alcance de todas las ocurrencias del símbolo de negación sólo hay fórmulas atómicas), prenexada (i. e., con todos sus cuantificadores al inicio) y tal que sólo contenga como símbolos proposicionales , y '~'. Sea M un modelo clásico de la misma signatura que F. Relativo a F y a M, definiré el juego semántico G (F, M). En él hay dos jugadores, el verificador inicial (Eloísa) y el falsificador inicial (Abelardo). Todas las tiradas consistirán en la elección por parte de alguno de los jugadores de un elemento del dominio de M o de una subfórmula de la fórmula que se esté considerando en ese momento. El juego semántico G (F, M) empieza con F (etapa 0). En la etapa i, los jugadores están considerando una fórmula Fi. 'A quién le toca' y 'qué podrá elegir' dependerá del operador lógico principal de Fi, de acuerdo con las reglas siguientes:

Si Fies de la forma (S1 S2, Eloísa elige S1 o S2. El juego continúa con la fórmula elegida.

Si Fi es de la forma (S1 S2, Abelardo elige S1 o S2. El juego continúa con la fórmula elegida.

Si Fi es de la forma Sx, Eloísa elige un miembro del dominio de M. Si el nombre de ese individuo es b, el juego continúa con Sb (b no necesita pertenecer al lenguaje en que está escrita F; sin embargo, dada la finitud de cualquier juego semántico, sólo se requiere un número finito de constantes nuevas).

Si Fi es de la forma Sx, la regla es idéntica a la anterior, salvo que Abelardo hace la selección.

Si Fi es un enunciado atómico verdadero, Eloísa gana y Abelardo pierde. Si Fi es un enunciado atómico falso, es a la inversa.

Si Fi es la negación de un enunciado atómico verdadero, Abelardo gana y Eloísa pierde. Si Fi es la negación de un enunciado atómico falso, es a la inversa.

Una estrategia para un jugador relativo a G (F, M) es un conjunto de funciones, una por cada ocurrencia de cada constante lógica de F que corresponda a ese jugador, y cuyos argumentos sean cualesquiera elecciones hechas en las tiradas anteriores. Es decir, una estrategia indicará al jugador qué hacer en cada momento del juego, cualesquiera que hayan sido las tiradas anteriores. Ahora bien, una estrategia ganadora para un jugador (relativa a G (F, M)) es una que le asegura la victoria, cualesquiera que sean los movimientos de su oponente. Las definiciones de verdadero y falso son las siguientes:

F es verdadera en M si y sólo si existe una estrategia ganadora para Eloísa en el juego G (F, M).

F es falsa en M si y sólo si existe una estrategia ganadora para Abelardo en el juego G (F, M).

Como es de esperarse, F es válida si es verdadera en todo modelo.

Es importante y esclarecedor extender5 esta definición al caso en que la fórmula en cuestión contiene símbolos de negación en otras posiciones. Para ello, la idea es simple, Abelardo y Eloísa intercambian papeles cuando llegan a una fórmula que contiene prefijado un símbolo de negación; Eloísa gana si la fórmula final es verdadera y los jugadores intercambiaron papeles un número par de veces; o bien, si la fórmula final es falsa y los jugadores intercambiaron papeles un número impar de veces, y similarmente para Abelardo.

Esta semántica fue introducida por Hintikka en la década de 1970 y, aunque es innovadora, no implica ninguna modificación en las fronteras de la lógica clásica,6 pues una fórmula es verdadera (o falsa) en un modelo M según esta definición si y sólo si es verdadera (o falsa) en M según la definición tarskiana. La ventaja que Hintikka (1973) aducía en favor de su definición, en aquellos años es que no es una simple correlación abstracta entre enunciados y hechos, sino que proveé una explicación de lo que hace a un enunciado verdadero, relacionándolo con las actividades con las que lo verificamos o lo refutamos.7 Esto desmentiría el mito (6).

 

b) El carácter "lineal" de la lógica clásica

La segunda innovación en que se basa la lógica IF es una generalización de la idea que dio lugar a la introducción por Leon Henkin de los cuantificadores ramificados.

Sabemos que para toda fórmula del lenguaje de primer orden hay una fórmula equivalente de segundo orden de la forma ∑11 , es decir, que es una fórmula de primer orden antecedida por una serie de cuantificadores existenciales de segundo orden.8

Dicho sea de paso, Hintikka generaliza esta idea para mostrar que las condiciones de verdad en términos de teoría de juegos de un enunciado S pueden ser expresadas por un enunciado de segundo orden, lo cual no es sorprendente porque la noción de estrategia ganadora está dada en términos de una serie de funciones.

Sin embargo, no toda fórmula de segundo orden de la forma ∑11corresponde a una de primer orden via esta correlación. Por ejemplo, la fórmula

no puede expresarse en primer orden. Mejor dicho, lo que esta fórmula expresa no puede decirse en primer orden, excepto que empleemos un vocabulario no lógico (como el de la teoría de conjuntos) o que empleemos el artificio introducido por Henkin y con el cual lo que (*) significa puede expresarse de la siguiente manera:

Aquí la idea de los juegos semánticos de Hintikka aporta claridad: cada tirada de Eloísa sólo depende de la tirada de Abelardo que corresponde al cuantificador inmediatamente precedente, la elección de 'y' depende únicamente de la de 'x', etcétera. De manera más precisa, podemos modificar la definición de verdad presentada anteriormente para permitir juegos con independencia informativa. La idea es la siguiente: en un enunciado de la forma Axy, Eloísa hace su tirada en función de la realizada por Abelardo. La dependencia de los cuantificadores es dependencia informativa de las tiradas. El verificador hace la suya sabiendo cuál fue la de su adversario. Una fórmula como (**) tendrá ahora asociado un juego en el que Eloísa hace su elección correspondiente a , conociendo cuál fue la tirada de Abelardo relativa a , pero no cuál fue la elección del falsificador correspondiente a , algo que es fácilmente concebible si pensamos que, en lugar de Eloísa y Abelardo, tenemos un equipo de verificadores y uno de falsificadores, lo que es común en teoría de juegos. De manera similar, modificamos la idea de estrategia ganadora: ahora no contará como tal una regla que indica al jugador cómo tirar a partir de información que no puede estar a disposición del jugador durante la tirada correspondiente.

Ahora bien, ¿por qué habría de contar como un defecto de la lógica clásica el que no pueda expresar (*) sin acudir a un vocabulario extralógico? En los términos de Hintikka, ¿por qué no habría de ser la lógica un juego con información perfecta, es decir, en que cada jugador realiza sus movimientos conociendo todas las tiradas anteriores? La respuesta se encuentra implícita en Henkin (1961): porque esta limitación depende del hecho aparentemente accidental de que nuestra escritura es lineal. Como dijimos, las fronteras de la lógica no pueden ser arbitrarias o dictadas por factores culturales; (**) parece una fórmula de la lógica que expresa algo muy sencillo. ¿Por qué no agregar a la lógica clásica cuantificadores ramificados? Por lo pronto tendríamos un aumento de poder expresivo. Simplemente el cuantificador Henkin, H(x,y,z,u), que es el que aparece en la fórmula (**), permite expresar que el conjunto de elementos del dominio que satisfacen una fórmula f es infinito, de la siguiente manera:

Sin embargo, hay un riesgo. Es fácil demostrar que cualquier lógica L que sea el resultado de agregar a la lógica clásica uno o varios cuantificadores de manera tal que haya una fórmula lógica9 de L que sólo tenga modelos finitos de cualquier cardinalidad, no es compacta y, por lo tanto, no es completa. El aumento de poder expresivo puede traer como consecuencia el que no podamos axiomatizar L. Como veremos, la lógica IF permite expresar la infinitud en estas condiciones sin perder (completamente) la compacidad, pero aun así no es axiomatizable.

¿Cómo podemos ponderar aquí pérdidas y ganancias? En favor de la lógica clásica tenemos a Quine (1986), quien en pocas líneas rechaza las facilidades a que darían pie los cuantificadores ramificados. Se basa en dos puntos. El primero es que la cuantificación ramificada esconde cuantificación acerca de funciones (que son entidades de orden superior). Para Quine, el pecado es doble: por un lado, la carga ontológica (inaceptable, la lógica no tiene presuposiciones ontológicas), por otro, la superchería. Sin embargo, él mismo repara en el carácter circular de su argumentación. Sólo es válida la acusación si la lógica que sirve de rasero es la lógica clásica. El segundo argumento que esgrime es que la lógica ramificada no admite simultáneamente procedimientos de prueba completos para validez e inconsistencia, como sí lo hace la lógica clásica. Ahora bien, ¿qué importancia tiene la completud como propiedad de una lógica? Parecería que cualquier conjunto de enunciados que aspire a contener todas las verdades de la lógica debe ser recursivamente enumerable. De nuevo estamos ante la idea de que la lógica debe ser sencilla o accesible desde el punto de vista epistemológico. Podemos establecer una gradación de cada vez menor accesibilidad epistémica de un conjunto S de verdades, que empiece con S siendo finito, siga con S siendo decidible, continúe con S siendo recursivamente enumerable pero no decidible, y termine con S no siendo recursivamente enumerable. Así, por ejemplo, se suele pedir que una concepción de un lenguaje efectivamente usado por una comunidad lo caracterice como constando de un conjunto recursivamente enumerable de enunciados. De lo contrario, se alega, no podría haber sido aprendido por ningún ser humano. Ahora bien, ya que las verdades de la lógica no constituyen un conjunto decidible (a menos que la lógica renunciara a la mayoría de sus pretensiones), se pide que al menos formen un conjunto recursivamente enumerable. El hecho de que un conjunto de verdades pueda ser finitamente axiomatizado indica que tenemos de él algún dominio o una visión sinóptica. Como ya mencioné, la lógica IF no satisface esta característica. Son interesantes las razones con las que Hintikka (1996: cap. 5) se enfrenta a la tradición en este aspecto.

Antes que nada, Hintikka separa los sistemas axiomáticos no–lógicos (por ejemplo, una axiomatización de la geometría), de los sistemas axiomáticos lógicos (por ejemplo, una axiomatización del cálculo de predicados) como siendo de naturaleza completamente diferentes. En los primeros, sean interpretados o no, las inferencias se llevan a cabo de manera puramente lógica y tienen en la mira o un modelo o una estructura determinada. Los segundos son solo un modo de enumerar las verdades de la lógica (las cuales, a su vez, pueden ser consideradas como codificaciones de modos de razonamiento correcto). En los primeros, la deducción (hecha ordinariamente con reglas implícitas) debe transmitir la verdad. En los segundos, las reglas de inferencia no preservan verdad, sino validez. Una vez hecha esta aclaración, Hintikka distingue tres tipos de completud: la primera es la completud descriptiva. Atañe a un sistema axiomático no–lógico y es la propiedad de tener como modelos sólo los deseados. Cuando sólo hay uno de tales modelos (salvo isomorfismo), esta propiedad equivale a categoricidad. La segunda es la completud semántica y se atribuye a axiomatizaciones de la lógica; es la virtud de tener como teoremas todos y sólo los enunciados lógicamente válidos. La tercera es la completud deductiva y atañe a un sistema axiomático no lógico que incluye una axiomatización de la lógica. Significa que para todo enunciado S del lenguaje en que esté formulado el sistema, uno puede probar S o bien ~S.

Hintikka piensa que los filósofos de las matemáticas han puesto demasiada atención a la completud deductiva, como si el matemático se pasara el tiempo deduciendo teoremas de un sistema axiomático, mientras que en realidad es la completud descriptiva la que es relevante a su actividad. Lo que importa al matemático no es obtener las consecuencias deductivas de un conjunto de enunciados, sino caracterizar, o tener una visión sinóptica, de una cierta clase de modelos de una teoría dada. Desde esta perspectiva, la incompletud no pertenece a la matemática y la completud a la lógica (como quería Quine), sino a la inversa: la lógica es semánticamente incompleta, pero eso no impide que las teorías matemáticas fundadas en esa lógica puedan ser descriptivamente completas. Por ello, Hintikka cree que la importancia del teorema de incompletud de Gödel ha sido muy exagerada:

Se ha visto que la completud de la lógica de primer orden ordinaria es meramente un sub–producto de restricciones innecesarias y artificiales que Frege y Russell impusieron en las reglas de formación de esta lógica eliminando la posibilidad de independencia [ruling out independence–friendliness]. Por tanto, es verosímil que de todas maneras tengamos que usar una lógica semánticamente incompleta. Y si es así, los resultados de Gödel no implican nada acerca de los prospectos de formular sistemas de axiomas descriptivamente completos para la aritmética elemental, ni siquiera en el usual nivel del primer orden. (Hintikka, 1996: 94)

Con ello Hintikka pretende mostrar la falsedad del mito (5). Hintikka contrapone aquí el carácter no arbitrario de la lógica a su simplicidad, dando preferencia a la primera: la lógica debe ser semánticamente incompleta porque la completud semántica es el efecto de una restricción indebida. Y si partimos de una lógica semánticamente incompleta, toda teoría construida sobre ella heredará esa propiedad. En ese caso, los programas formalista y logicista dejan de tener sentido y el teorema de Gödel no tiene la importancia que se le atribuía. Nuestro objetivo será construir teorías descriptivamente completas. Más adelante, expondré algunas ideas respecto a la incompletud de la lógica IF.

 

c) La independencia informativa generalizada

La segunda innovación en que se basa la lógica IF es la de generalizar la idea de Henkin a otros tipos de dependencias funcionales creadas por las interacciones de operadores lógicos:

Cualquier ocurrencia de un operador lógico B (cuantificador o conectivo) que ocurra en el alcance sintáctico de una serie de cuantificadores, 2, puede ser excluido de la dependencia de estos últimos o de algunos de ellos. Dicho en otra forma, la elección (en términos del juego semántico) que corresponde a B puede hacerse con independencia informativa (es decir, en la ignorancia) de la que corresponde a (algunos elementos de) ∑. Esto será indicado con un '/' teniendo en su parte superior a B y en la inferior a (algunas de) las variables ligadas por S. Por ejemplo, la fórmula (**) (que empleaba el cuantificador Henkin) puede ser escrita de la siguiente manera

donde la diagonal indica en cada caso que el cuantificador existencial es independiente del universal que acota la variable que aparece bajo el símbolo '/' (y, en la segunda ocurrencia de '', también del existencial). Otro ejemplo es:

donde la diagonal indica que la selección de S o T se hace independientemente de x, y por tanto esta fórmula es equivalente a:

Ahora bien, Hintikka sólo permite que disyunciones o cuantificadores existenciales dentro del alcance sintáctico de cuantificadores universales se independicen de estos. Sin embargo, en algún momento Hintikka reconoce que las fórmulas que aparecen en el texto deben leerse suponiendo implícitamente que los cuantificadores existenciales son también independientes de los anteriores. Esta convención genera varios problemas.10 En lo que sigue prefiero hacer explícitas todas las independencias cuantificacionales. Desde luego, las innovaciones introducidas bastan para expresar en primer orden proposiciones que no podrían ser expresadas en la lógica clásica ni aun aumentada con cuantificadores ramificados. Observe el siguiente ejemplo:

Algún familiar de cada pueblerino y todos los citadinos se aman o se odian mutuamente

En el lenguaje de la lógica IF:

11

En este caso, el que el amigo del pueblerino y un citadino se amen o se odien no depende del primero, sino del segundo. En segundo orden podría esto expresarse de la siguiente manera:

El siguiente ejemplo de Hintikka combina independencia de conectivos y de cuantificadores:

que en segundo orden puede traducirse con

Sin embargo, Sandu permite otros tipos de independencia informativa. Por ejemplo, en un juego semántico correspondiente a la fórmula

Eloísa hace su elección correspondiente a en ignorancia de cualquiera de las tiradas anteriores, incluyendo la suya propia correspondiente a (o habiendo olvidado su elección anterior). Es conveniente considerar la opción más general de Sandu de la forma en que veremos más adelante.

Las reglas de formación de enunciados de la lógica IF son las siguientes. Una fórmula de la lógica IF de primer orden es obtenida de una fórmula clásica S de primer orden, por aplicación a un número finito de veces de cualquiera de las siguientes operaciones:

(a) Si (Qx)Rx ocurre en S (Q un cuantificador existencial o universal) dentro del alcance de una serie de cuantificadores, la cual incluye (Qx1),(Qx2),... y (Qxk), entonces puede ser reemplazada por

(Qx/x1, x2... xk) Rx (con x≠xi)

(b) Si (R+T) ocurre en S (donde '+' representa un símbolo de conjunción o de disyunción) dentro del alcance de una serie de cuantificadores, la cual incluye (Qx1),(Qx2),... y (Qxk), entonces puede ser reemplazada por

(R(+/(x1,x2..., xk) T)

Debe observarse que en estos lenguajes el principio de composicionalidad no es válido, pues si la diagonal puede ser agregada a un operador lógico, por ejemplo, a un cuantificador existencial, liberándolo del alcance de una serie de cuantificadores universales, dependerá de si éstos se encuentran precediendo a ese operador. El principio de composicionalidad ha sido hasta ahora fundamental en semántica. El lenguaje IF no obedece tal principio12 y, por ello, una definición de verdad de tipo Tarski que procede de adentro hacia afuera, en estricta observancia de este principio, no es posible para los lenguajes IF. Si Hintikka tiene razón en cuanto a la preeminencia de la lógica IF, el mito (4) es falso.

 

ALGUNAS PROPIEDADES DE LA LÓGICA IF

Ponderemos ahora ventajas e inconvenientes de los sistemas propuestos por Hintikka y Sandu. Algunas de sus propiedades son:

a) Mayor poder expresivo. El mayor poder expresivo de los lenguajes IF de primer orden frente al de sus variantes tradicionales se debe a que un enunciado de su lenguaje asevera la existencia de una estrategia ganadora para el verificador inicial aun cuando éste tenga una información menor. El resultado es que hay estructuras que pueden ser caracterizadas por los lenguajes IF y no por los lenguajes de primer orden clásicos. La lógica IF cumple mejor la función descriptiva de la lógica. Hintikka ofrece varios ejemplos de propiedades matemáticas que pueden expresarse en lógica IF y no en la lógica de primer orden clásica (sin emplear vocabulario extralógico). Tomemos como ilustración los tres siguientes:

Los conjuntos {x|F(x)} y {y|G(y)} tienen la misma cardinalidad:

La siguiente fórmula IF (a la que denotaremos como inf) sólo tiene modelos infinitos:

La siguiente fórmula expresa que una cierta relación denotada por 'R(x,y)' no es un buen orden:

Por otro lado, hay teoremas matemáticos que hacen referencia explícita a la independencia cuantificacional. Por ejemplo, la definición 'f es una función uniformemente diferenciable en el intervalo (a,b) si y sólo si

Otros ejemplos en que la independencia informacional es explícita se hallan en la teoría de Frank Ramsey. No obstante, si la independencia informacional es tan importante en la expresión matemática, ¿no deberían encontrarse ejemplos más elementales y conocidos que los que hemos mencionado? Hintikka replica que la independencia se oculta en enunciados de segundo orden de la forma ∑11 que los matemáticos emplean y que no tienen traducción a la lógica clásica de primer orden. Si la lógica por excelencia es la lógica IF, entonces el mito (2) es falso.

b) La lógica IF resulta ser una extensión conservativa de la lógica de primer orden clásica.13 Como dije antes, una fórmula de primer orden clásica es verdadera en un modelo según la semántica tarskiana si y sólo si es verdadera de acuerdo con la semántica en términos de teoría de juegos.

c) Cada enunciado de IF tiene una traducción en segundo orden de la forma ∑11, y viceversa, cada enunciado de segundo orden de esta forma puede ser traducido a un lenguaje IF de primer orden, de tal manera que un enunciado y su traducción respectiva son débilmente equivalentes, es decir, son verdaderos en los mismos modelos.

d) El teorema de compacidad, en una de sus formas, es válido en IF, a saber, en la formulación (1): un conjunto de IF–enunciados tiene modelo, si y sólo si cada uno de sus subconjuntos finitos lo tiene. La prueba es sencilla e ilustra cómo son demostradas algunas otras propiedades de la lógica IF: sea un conjunto de fórmulas de un lenguaje IF de primer orden y * el conjunto de traducciones de todos los miembros de en segundo orden con diferentes símbolos funcionales para diferentes cuantificaciones existenciales iniciales. Sea ** el conjunto resultante de omitir esos cuantificadores existenciales de cada fórmula de *, ** es un conjunto de fórmulas ordinarias de primer orden. Cada uno de los conjuntos , *, ** es satisfacible si y sólo si los otros lo son. Como la lógica de primer orden es compacta, ** tiene un modelo si cada uno de sus subconjuntos lo tiene y cada uno de tales subconjuntos (β** tiene modelo si y sólo si el correspondiente (β lo tiene. Sin embargo:

e) No es verdad en lógica IF otra formulación, (2), del teorema de compacidad, a saber, si un enunciado es consecuencia lógica de un conjunto ∑ de enunciados también lo es de un subconjunto finito de ∑. La prueba (debida a Serge Bozon) es la siguiente: sea i el enunciado de primer orden que expresa que hay al menos i elementos en el dominio del modelo. Entonces Oinf es consecuencia de {i}i=1,2,... pero no lo es de ninguno de sus subconjuntos finitos. Esto muestra que la lógica IF no es completa, en el sentido fuerte en que no hay un procedimiento de prueba consistente y tal que permita deducir un enunciado de cualquier conjunto de enunciados del que es consecuencia.

f) Para la lógica IF son válidos el teorema de Löwenheim–Skolem y el lema de separación (en una forma extendida).

g) En IF no es válido el principio del tercero excluido. Como pudo advertirse ya cuando señalamos las definiciones de verdadero y falso, dadas a través de juegos semánticos, la ley del tercer excluido no tendría por qué ser válida en la lógica IF. Puede ocurrir que para una fórmula en un juego semántico relativo a un modelo dado no haya estrategia ganadora ni para Eloísa ni para Abelardo. Es decir, que el conjunto de modelos en que una fórmula IF es verdadera no determina el conjunto de modelos en que esta fórmula es falsa; por ejemplo, no hay estrategia ganadora para ninguno de los dos contrincantes en juego asociado al enunciado

en el modelo M = {0,1}.

h) Aunque, como se observó, la lógica IF no es axiomatizable, es posible construir árboles semánticos de tal manera que con ellos pueda probarse la inconsistencia de cualquier conjunto de IF–enunciados que tenga esta propiedad.

i) El predicado enunciado verdadero para un lenguaje IF puede ser definido al interior de ese lenguaje. Más precisamente: en un lenguaje L de tipo IF que comprenda la aritmética elemental es posible definir un predicado que sea verdadero de un número si y sólo si éste es el número de Gödel de una fórmula verdadera de L. Hintikka anuncia este resultado diciendo que la lógica IF permite conjurar la maldición de Tarski. Como advertimos, una antigua aspiración de la lógica consistía en proveer un lenguaje para toda la ciencia, pero eso es imposible mientras la semántica de un lenguaje sea inexpresable en ese mismo lenguaje. Una posibilidad consistía en aseverar que la semántica era inefable (Ludwig Wittgenstein), otra, en postular una serie de lenguajes cada vez más amplios, cada uno de los cuales comprendiera la definición de verdad de los anteriores (Tarski). Hintikka cree resucitar aquí la pretensión de Rudolf Carnap de superar esta limitación. Lo cual echaría por tierra el mito (1).

 

LA NEGACIÓN EN LA LÓGICA IF. UNAS PALABRAS SOBRE IFE

Sin embargo, este logro espectacular se ve obscurecido por otras dificultades que enfrenta la lógica IF (y que Hintikka ingeniosamente presenta como virtudes), todas ellas conectadas con el extraño comportamiento de la negación IF. Es fácil notar que ésta es la fuente del mayor poder de la lógica IF frente a sus variantes tradicionales. Daré tres ejemplos:

i) Puesto que hay una fórmula de segundo orden clásica sin constantes extralógicas que sólo tiene modelos infinitos (de cualquier cardinalidad infinita), su negación sólo tiene modelos finitos (de cualquier cardinalidad finita). Esto impide que esa lógica sea compacta y, por lo tanto, completa. En lógica IF hay una fórmula que sólo tiene modelos infinitos (de cualquier cardinalidad), pero no es cierto que su negación sólo tenga modelos finitos de cualquier cardinalidad. Por ello, puede retener la compacidad (en la formulación (1)). En efecto, la fórmula ~ inf es estrictamente equivalente a

La cual es verdadera en los modelos de cardinalidad 114 y sólo en ellos, es decir, inf es verdadera en todo modelo infinito, pero falsa sólo en modelos de cardinalidad 1.

ii) Como la lógica de segundo orden, la lógica IF no es completa semánticamente, pero a diferencia de aquélla, el conjunto de sus enunciados inconsistentes sí es recursivamente enumerable. Sin embargo, el procedimiento para determinar inconsistencia no se convierte en un algoritmo para enumerar verdades lógicas, porque la negación (contradictoria) de muchos IF enunciados no es expresable en el lenguaje IF.

iii) Como en el lenguaje natural, algunos lenguajes IF sí tienen un predicado de verdad definido en su interior. En el lenguaje ordinario esto conduce a la paradoja del mentiroso. En cambio, los lenguajes IF en cuestión no son por ello inconsistentes. De nuevo, la razón es que la negación de la fórmula que define la verdad no define la falsedad y, por lo tanto, no es posible replicar con ella la paradoja del mentiroso. Supongamos que T(x) define la verdad en un lenguaje aritmético IF. ¿Qué ocurre cuando aplicamos el lema diagonal (válido en ese lenguaje) a la fórmula ~T(x)? Obtendríamos un enunciado que en el modelo estándar no es ni verdadero ni falso. Es decir, mientras T(x) es verdadera de los números de Gödel de los enunciados verdaderos del lenguaje en cuestión y sólo de ellos, ~T(x) es verdadera de algunos números de Gödel de enunciados que carecen de valor de verdad.

La incapacidad de la lógica IF para expresar la negación contradictoria de un enunciado no clásico conduce a una dificultad para cumplir la misión deductiva de la lógica, a saber, el condicional material tampoco será expresable en los lenguajes IF (Hintikka, 1996: 138). Si definimos '()' como (~β), entonces tenemos un condicional más fuerte que el ordinario. Así, un simple modo de inferencia como el modus ponens no es expresable en la lógica IF, es decir, dados dos enunciados P y Q no siempre habrá un enunciado (PQ) tal que sea válido si y solo si en cada modelo en que P sea verdadera Q también lo es. Lo que tenemos en IF es sólo un sucedáneo del condicional (a saber, ) que es válido si y sólo si en cada modelo en que P no es falso, Q es verdadero. Por lo tanto, no hay en IF un enunciado cuya validez exprese que es correcta la inferencia de la verdad de un enunciado a la verdad de otro. Hintikka minimiza la importancia de la función deductiva de la lógica asegurando que no tenemos intuiciones respecto de materias tan complejas como la validez de argumentos:

Y así otra opinión común de la lógica muerde el polvo. Ésta es la idea de la lógica como una sistematización de nuestras intuiciones acerca de relaciones de consecuencia lógica entre proposiciones. Hay pocas razones de valor para pensar que podríamos tener <<intuiciones>> viables acerca de materias tan complejas que ni siquiera puedan ser expresadas en un lenguaje IF de primer orden. (Hintikka, 1996: 140–141)

El extraño comportamiento de la negación da a la lógica IF una complejidad suplementaria. Por ejemplo, la equivalencia entre dos IF enunciados es, como se observo, una equivalencia débil: ambos son verdaderos en los mismos modelos, pero no falsos. Eso significa que, si y β son (débilmente) equivalentes, puede ocurrir que ~y ~β no lo sean. De igual manera, la traducción a segundo orden de esos enunciados sólo preserva verdad, no falsedad. De nuevo, Hintikka presenta esto como una ventaja de la lógica IF, a saber, que permite hacer distinciones a las que la lógica de segundo orden es insensible. La lógica IF mostraría la falsedad del mito (3).

Hintikka (1996: 147) introduce una negación contradictoria '¬' que, por supuesto, construye enunciados falsos a partir de verdaderos y viceversa. El resultado es una lógica IF extendida (IFE). No analizaré aquí este sistema. Baste decir que:

a) La lógica IFE presenta desde su constitución dos rarezas, una sintáctica y otra semántica. La primera es que el símbolo '¬' no puede aparecer más que en dos posiciones: delante de una fórmula atómica y precediendo un enunciado completo. La explicación se halla en la segunda peculiaridad, a saber, que:

b) la semántica de '¬' no puede ser dada en términos de teoría de juegos. De hecho, es un enunciado metalingüístico asegurando la no existencia de una estrategia ganadora para Eloísa en el juego semántico correspondiente.

c) En la lógica IF extendida reaparece la maldición de Tarski: no puede ser definido el predicado verdadero para un lenguaje IFE al interior del mismo, so pena de inconsistencia. Se puede, en cambio, dar una definición parcial de verdad dentro del propio lenguaje que se aplique a todos los enunciados que no contienen la negación contradictoria. Ya que este conectivo sólo aparece al inicio de las fórmulas, Hintikka (1996: 151)dice que esta definición "indirectamente determina la verdad y la falsedad de todos los enunciados de IFE" y cumple, por tanto, la tarea de una definición total de la verdad.

Sin embargo, la lógica IFE cuenta con una ventaja espectacular que no podemos pasar por alto. En lo que se refiere a poder expresivo, también la lógica IF tiene sus límites, y una objeción que viene inmediatamente a la mente es por qué detenerse allí y no en otro punto. Por ejemplo, el que sea válido en IF el teorema de Löwenheim–Skolem indica que no hay una fórmula IF que sólo sea verdadera en estructuras infinitas no numerables. Así como la lógica clásica no puede expresar la infinitud (sin emplear vocabulario extralógico) la lógica IF no puede expresar la infinitud no numerable (en las mismas condiciones). A esto Hintikka tiene una respuesta que, a mi juicio, constituye una de las más grandes ventajas de su propuesta, aunque para obtenerla tenemos que recurrir a la versión extendida. Podríamos preguntarnos por qué apelar a la lógica IF que es débilmente equivalente a un fragmento de la lógica de segundo orden y no mejor asumir ésta en su totalidad y, con ello, aumentar seguramente el poder expresivo de la lógica y la posibilidad de tener teorías descriptivamente completas. La respuesta es que tendríamos que tomar la semántica estándar de la lógica de segundo orden y con ello "enfrentarnos a los problemas conectados con las ideas de conjunto arbitrario y función arbitraria" (Hintikka, 1996: 193). En cambio, es conocido que todo lenguaje de orden superior puede reducirse al fragmento Π11 de la lógica de segundo orden y, por tanto, puede ser reducido a la lógica IFE. La consecuencia es que cualquier propiedad o relación matemática expresable en lenguajes de orden superior también es expresable en los lenguajes IFE. Es por ello que Hintikka asevera: "en un interesante sentido, una gran cantidad de teorías matemáticas pueden ser formuladas en un lenguaje de primer orden IFE. Tal teoría puede ser expresada en la forma ¬T, donde T es un enunciado del lenguaje IF (no extendido) y ¬ es la negación contradictoria" (Hintikka, 1996: 197). Esta característica confiere a la lógica IF un carácter menos arbitrario y una de sus mayores ventajas frente a sus rivales.

Además de eliminar los mitos enumerados, la sustitución de la lógica clásica por la lógica IF traería, según Hintikka, algunas consecuencias importantes en defensa del nominalismo, el estructuralismo y el logicismo. Puesto que "casi toda la matemática clásica puede en principio ser hecha en teoría de tipos interpretada de manera estándar" (Hintikka, 2002: 409), la cual puede en cierto sentido ser reducida a la lógica IF extendida y ésta es, de primer orden, pues todas sus variables versan sobre individuos, "esto debería calentar el corazón de cada nominalista filosófico" (Hintikka, 1996: 198). Además:

Un enunciado IF de primer orden es válido si y solo si cierta estructura relacional no puede evitar ser instanciada en cada modelo. El problema de si un enunciado IF de primer orden dado es o no válido es por lo tanto un problema combinatorio en un sentido suficientemente amplio del término [...] Entre otras cosas esto muestra que todo razonamiento matemático puede en principio ser considerado como siendo lógico en su naturaleza. (Hintikka, 1996: 198–199)

Esas son las principales consecuencias filosóficas positivas que Hintikka deriva de su propuesta.

 

CONCLUSIONES

Es difícil comparar dos lógicas en cuanto a sus respectivas virtudes. Si nos limitamos a las dos funciones que Hintikka señala, constatamos, una vez más, una tensión entre ellas. Extender el poder expresivo nos conduce fatalmente a una pérdida en la capacidad de codificar el razonamiento y viceversa. La balanza se inclina en favor de la lógica IF, si privilegiamos la expresividad. Si se trata, en cambio, de explicar la noción de argumento correcto, la lógica clásica resulta vencedora.

Para quien prefiere esta última opción, la simplicidad también será un factor importante y, en ese caso, me parece que la incompletud de la lógica IF puede contar como uno de sus defectos principales. Es cierto que la comprensión del concepto de verdad lógica o validez puede darse mediante la comprensión de los conceptos de verdad y totalidad de modelos, pero si la lógica pretende explicar nuestra noción (o nuestras nociones) de corrección de argumentos, y ésta es relativamente clara a toda persona que domina la lengua en cuestión (lo que Hintikka parece poner en duda), entonces debe esperarse que el conjunto de verdades lógicas (que no son más que codificaciones de formas de argumentos correctos) sea epistemicamente accesible. Esta idea, a mi juicio, subyace a la pretensión de mecanización del razonamiento tantas veces enarbolada por los lógicos. Si bien es cierto que el matemático no se pasa la vida derivando teoremas en un sistema formal, la prueba sigue siendo parte central de su actividad y se espera que la lógica arroje luz acerca de esta compleja noción. Sin embargo, este argumento no es compulsorio para Hintikka pues, para él, la lógica no tiene por qué explicar la noción de corrección de argumentos.

Sin embargo, hay otras dos cuestiones donde se pone en duda que la lógica IF sea realmente una lógica y que, aun si fuese la lógica, de allí puedan sacarse las conclusiones nominalistas que Hintikka aduce. Considerémoslas brevemente.

La primera es que hay razones para poner en duda que el sistema de Hintikka y Sandu merece ser llamado lógica. Una de las principales líneas de argumentación de Hintikka, como he revisado, es que la función descriptiva de la lógica es más importante que su función deductiva, porque de hecho ni siquiera tenemos intuiciones claras de algo tan complejo como la corrección de argumentos. Esta afirmación, que evidentemente habría que someter a prueba, no está justificada por su autor y va, por lo pronto, contra la opinión común de muchos teóricos. Ha sido frecuente, por ejemplo, entre los estudiosos de la relevancia, sostener el pluralismo lógico15 en el fundamento de que hay varias nociones de consecuencia lógica a explicar, varios explicanda y, por tanto, que es natural que diferentes lógicas ofrezcan diversos explicata de esta noción en apariencia unívoca. Sus rivales se basan con frecuencia en la idea de que hay una noción última de consecuencia y que tal vez simplemente no hemos encontrado la manera de explicarla de manera correcta. Sin embargo, Hintikka pretende que la lógica debe renunciar a esta tarea que la ha caracterizado a lo largo de su historia para concentrarse en su función descriptiva. Esto, a mi juicio, no es nada evidente. Tampoco me parece cierto que la noción de consecuencia sea, desde el punto de vista extensional, obscura o compleja, aunque los límites de su extensión pueden resultar vagos o difusos. En tal caso, la pretensión logicista de Hintikka carece de fundamento.

En segundo lugar, una crítica obvia a la posición que examinamos es la que tiene como blanco la pretensión de que la lógica IF es de primer orden y que es en la cual Hintikka se apoya para favorecer al nominalismo. Desde luego esta cuestión no puede decidirse sintácticamente, pero tampoco a través de los conocidos estándares semánticos, porque la semántica IF no es estándar. Por ello, utilizar aquí el criterio ontológico de Quine no parece acertado. Como se observó, la idea de que la lógica IF es de primer orden se basa en que las fórmulas de su lenguaje sólo cuantifican acerca de individuos. Este no puede ser el criterio para decidir si un sistema cuantificacional es de primer orden, como ha mostrado Solomon Feferman (2006). Su argumento es sencillo: sistemas formados de la lógica clásica por la adición de uno o varios cuantificadores generalizados no pueden ser considerados como siendo de primer orden, puesto que el poder expresivo de la lógica de primer orden puede así ser expandida a voluntad. Sin embargo, las variables de esos cuantificadores sólo discurren sobre individuos. Mediante otros estándares, en cambio, Jouko Väänänen (2001) ha probado que la lógica IF es de segundo orden, si uno considera no la satisfacción, sino la validez de sus fórmulas. Se observa, entonces, que la lógica IF difícilmente puede servir a una defensa de las mencionadas posiciones filosóficas.

En conclusión, si consideramos todos los factores que deben tenerse en cuenta en la evaluación de una lógica, la lógica IF no parece resultar vencedora. Por otra parte, si restringimos la atención al carácter lineal de los operadores lógicos clásicos parece que la propuesta de Hintikka nos libera de una restricción innecesaria y apunta a una posible sustitución de la lógica clásica por otro tipo de lógica.

 

BIBLIOGRAFÍA

Beall, J. C. y Greg Restall (2006), Logical Pluralism, Oxford, Estados Unidos, Oxford University Press.         [ Links ]

Benthem, Johan van (2006), "The epistemic logic of if games", en Randall Auxier y Lewis E. Hahn (eds.), The Philosophy of Jaakko Hintikka, Chicago, Estados Unidos, Open Court, pp. 481–513.         [ Links ]

Cook, Roy y Stewart Shapiro (1998), "Hintikka's revolution: The principles of mathematics revisited", British Journal of the Philosophy of Science, vol. 49, pp. 309–316.         [ Links ]

Dechesne, Francien, "IF logic and skolemization: falsity conditions for IF formulas", en http://www.univ–nancy2.fr/poincare/colloques/symp02/abstracts/dechesne.pdf, 2 de octubre de 2006.         [ Links ]

Feferman, Solomon (2006), "What kind of logic is 'independence friendly' logic?", en Randall Auxier y Lewis E. Hahn (eds.), The Philosophy of Jaakko Hintikka, Chicago, Estados Unidos, Open Court.         [ Links ]

Henkin, Leon (1961), "Some remarks on infinitely long formulas", en Infinistic Methods. Procedings of the Symposium on Mathematics, Varsovia, Polonia, Pergamon Press, pp. 167–187.         [ Links ]

Hintikka, Jaakko (1973), Logic, Language Game and Information, Oxford, Reino Unido, Clarendon Press.         [ Links ]

Hintikka, Jaakko (1996), The Principles of Mathematics Revisited, Cambridge, Estados Unidos, Cambridge University Press.         [ Links ]

Hintikka, Jaakko (2002), "Hyperclassic logic (A. K. A. IF Logic) and its implications for logical theory", The Bulletin of Symbolic Logic, vol. 8, pp. 404–423.         [ Links ]

Montague, Richard (1974), Formal Philosophy: Selected Papers of Richard Montague, New Haven, Estados Unidos, Yale University Press.         [ Links ]

Hodges, Wilfrid (1997), "Compositional semantics for a language of imperfect information", Logic Journal of the IGPL, vol. 5, pp. 539–563.         [ Links ]

Janssen, Theo M. V. (2002), "Independent choices and the interpretation of IF logic", Journal of Logic, Language and Information, vol. 11, núm. 3, pp. 367–387.         [ Links ]

Quine, Willard Van Orman (1986), Philosophy of Logic, Cambridge, Estados Unidos, Harvard University Press.         [ Links ]

Väänänen, Jouko (2001), "Second order logic and the foundations of mathematics", The Bulletin of Symbolic Logic, vol. 7, pp. 504–520.         [ Links ]

 

NOTAS

1 El criterio ontológico de Quine se aplica estrictamente a teorías en el lenguaje regimentado de la lógica de primer orden clásica sin constantes individuales.

2 Quine (1986: cap. IV) intentó reducir los compromisos ontológicos de la lógica, en este sentido amplio, recurriendo a una versión substitucional de la verdad lógica.

3 Véase, por ejemplo, Begriffsschrift, párrafo 23.

4 Esta es la posición de Quine. Hintikka se la atribuye, entre otros, a Frege: "Frege and most of his followers, have presented first order logic as resulting from a minor regimentation of ordinary language, involving mostly the elimination of the unfortunate ambiguities and other imperfections which beset the unpurified language of our tribe" (Hintikka, 1996: 126).

5 Hintikka lo hace desde la definición original. Sigo en esto a Sandu (en el apéndice del libro).

6 Siempre y cuando no admitamos fórmulas irregulares (en donde dos cuantificadores en la misma variable ocurran uno dentro del alcance de otro, o en que una misma variable ocurra libre y ligada) o bien fórmulas en que ocurre un cuantificador vacío (que no acota nada).

7 Johan van Benthem (2006) ha mostrado que la semántica en términos de teoría de juegos es más rica que la semántica tarskiana.

8 Esto supone el axioma de elección que garantiza la existencia de las correspondientes funciones de Skolem.

9 Es decir, todos de cuyos símbolos pertenecen al vocabulario lógico.

10 Por ejemplo, que el enunciado ya no sería válido, contrariamente a las pretensiones de Hintikka. Este hecho fue señalado por Roy Cook y Stewart Shapiro (1998) aunque, como mostró, Theo Janssen (2002) hay una manera de entender estrategia ganadora que no genera este problema.

11 Aunque, como más adelante veremos, la lógica IF no puede representar el condicional clásico, entre fórmulas atómicas puede aparecer con el significado de que el antecedente es falso o el consecuente verdadero. Algo similar vale para el bicondicional y los ejemplos que doy a continuación.

12 Wilfrid Hodges (1997) ha dado reglas para formación de fórmulas IF y una semántica correspondiente de tal manera que el principio de composicionalidad es válido para los lenguajes así definidos, pero yo prefiero la versión de Hintikka porque éste supone que la violación de ese principio es una ventaja más de su lógica.

13 Mencioné antes que habrá de matizarse este punto: si se admiten fórmulas irregulares, es decir, con dos cuantificadores en la misma variable uno dentro del alcance de otro, o en que una misma variable ocurra libre y ligada habrá enunciados clásicos que cambien de valor de verdad cuando sean evaluados según las semánticas de Tarski y Hintikka respectivamente. Debemos también excluir los cuantificadores vacíos (es decir, que no acotan nada) para evitar el fenómeno de la señalización observado por Hodges.

14 Para verlo hay que trasladar las fórmulas IF a fórmulas de segundo orden usando el procedimiento descrito por Hintikka y emplear el siguiente lema: una fórmula IF en forma normal negación es débilmente equivalente a la fórmula que de ella se obtiene al borrar todos los '/' que están en cuantificadores universales, pues, si Eloísa tiene una estrategia ganadora, ésta garantiza su triunfo aun si por azar Abelardo se comporta como si tuviera la información de que carece. Este artificio y ejemplo se lo debo a Francien Dechesne.

15 Por ejemplo, Beall y Restall, 2006.

 

INFORMACIÓN DE AUTOR(A)

Max Fernández de Castro: es profesor de la Universidad Autónoma Metropolitana, unidad Iztapalapa. Realizó sus estudios de doctorado en la Universidad de París I. Es autor del libro Quine y la ontología abstracta. Sus temas de interés son la lógica filosófica, filosofía de la lógica y de las matemáticas.