SciELO - Scientific Electronic Library Online

 
vol.46 número138Creencia de primera persona, conciencia y la paradoja de Eroom índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Crítica (México, D.F.)

versión impresa ISSN 0011-1503

Crítica (Méx., D.F.) vol.46 no.138 Ciudad de México dic. 2014  Epub 13-Ene-2020

 

Artículos

Expresabilidad, validez y recursos lógicos

Eduardo Alejandro Barrio* 

*Universidad de Buenos Aires, CONICET, eabarrio@gmail.com


Resumen

El objetivo de este artículo es investigar diversos resultados limitativos acerca del concepto de validez. En particular, argumento que ninguna teoría lógica de orden superior con semántica estándar puede tener recursos expresivos suficientes como para capturar su propio concepto de validez. Además, muestro que la lógica de la verdad transparente que Hartry Field desarrolló recientemente conduce a resultados limitativos similares.

Palabras clave: la paradoja de la validez; lenguajes de orden superior; verdad transparente; autorreferencia; lógica no clásica

Summary

The aim of this paper is to investigate various limitative results about the concept of validity. In particular, I argue that higher-order logic with the standard semantics cannot be sufficiently expressive to capture its own concept of validity. Moreover, I show that the logic of transparent truth recently developed by Hartry Field leads to similar limitative results.

Key words: validity paradox; higher-order languages; transparent truth; self-reference; non-classical logic

El teorema de indefinibilidad de la verdad (Tarski 1935) muestra que, bajo la lógica clásica, ninguna teoría consistente capaz de expresar la aritmética puede probar todas las instancias del esquema-T y, por lo tanto, definir su propio predicado veritativo. Una manera frecuente de interpretar este resultado es que la verdad es inexpresable dentro de esas teorías usando simplemente esos recursos lógico-aritméticos. El propósito de este artículo es investigar cuáles son los resultados limitativos correspondientes al concepto de validez. Dados los tradicionales vínculos entre este concepto y el de verdad, podría pensarse que hay una extensión directa desde el resultado de Tarski a cualquier intento de expresar validez adoptando los mismos recursos necesarios para la prueba del mencionado teorema. Sin embargo, puede probar-se (Ketland 2012) que, a diferencia de lo que sucede con verdad, la aritmética de Peano tiene recursos suficientes para capturar validez lógica para las teorías de primer orden. Esto es, si se contrasta con el caso de la paradoja del mentiroso, no hay una paradoja de la validez adoptando recursos lógico-aritméticos dentro de lenguajes de primer orden (Ketland 2012, Cook 2014). No obstante, en este trabajo argumento que este resultado no basta para mostrar que no existen paradojas alrededor de la validez lógica. En particular, sostengo que si se adoptan más recursos expresivos que los correspondientes a la lógica clásica de primer orden, el predicado de validez, al igual que el predicado veritativo, no puede expresarse consistentemente usando recursos aritméticos. Así, ninguna teoría lógica de orden superior con semántica estándar puede tener recursos expresivos suficientes para capturar su propio concepto de validez. Esto significa que, para estas teorías, la pretensión de extender los recursos dentro del lenguaje para expresar validez produce trivialidad: hay una paradoja, de estructura similar a la paradoja de Curry, que nos impide expresar el mencionado concepto lógico. Tal paradoja ha recibido el nombre de paradoja de validez (V-Curry). Por último, recientemente muchos han sido los intentos por modificar la lógica clásica a la luz de las paradojas semánticas. Quizá, el más importante es el enfoque de Hartry Field (2008). Defiendo que la pretensión de extender los recursos de esa “lógica de la verdad transparente” para expresar validez dentro del lenguaje conduce a resultados limitativos similares.

1. La paradoja de la validez

La idea de desarrollar lenguajes semánticamente cerrados, i.e., que contengan todas sus nociones semánticas sin obtener trivialidad, incluye la necesidad de expresar validez lógica (la cual es obviamente distinta del condicional material). Claro que la paradoja del mentiroso ha provocado todo tipo de intentos para revisar las leyes lógicas, en especial aquellas vinculadas a la negación. Los más conocidos son los enfoques paracompletos (Kripke 1975, Field 2008), que básicamente rechazan el principio del tercero excluido, adoptando modelos kripkeanos de punto fijo, y los enfoques paraconsistentes (Priest 2006, Beall 2009), que en esencia rechazan la ley de explosión, adoptando modelos que permiten dialetheias.1 También es ampliamente conocido que ambas estrategias tienen dificultades para expresar el concepto de negación y evitar las revanchas: esto es, nuevas paradojas que surgen al incorporar conceptos semánticos como resultado de una solución tentativa a la paradoja original.

En los últimos años, la paradoja de Curry ha permitido darnos cuenta de que la revisión de la lógica de la negación no es suficiente para la solución a los problemas expresivos vinculados a las paradojas semánticas. Hace falta, además, producir modificaciones vinculadas a las leyes del condicional material. Es claro que uno de los desafíos actuales más importantes para aquellos que trabajan en el proyecto de revisar la lógica a la luz de las paradojas semánticas es encontrar una lógica con un condicional apropiado que no permita derivar la paradoja de Curry. En cualquier caso, sea este proyecto posible o no, los vínculos entre validez y transmisión de verdad nos hacen sospechar que la tarea de desarrollar una lógica dentro de un lenguaje capaz de expresar validez podría no ser sencilla. Veámoslo detenidamente.

Diversos autores han argumentado que validez, al igual que verdad, es un concepto contaminado con paradojas (Whittle 2004, Field 2008, Shapiro 2011, Beall y Murzi 2013, Murzi 2014, Murzi y Shapiro en prensa).2 Para apreciar el punto, sea L un lenguaje de primer orden capaz de expresar la aritmética (PA), lo cual resulta conveniente por la necesidad de expresar oraciones autorreferenciales. Por lo general, usamos diagonalización a tales efectos. La estrategia que propone capturar validez en forma predicativa tiene diversas opciones de acuerdo con la aridad del predicado de validez. Un modo simple de plantear el problema es tomar el caso en el cual tenemos una sola premisa. Sea L+ el resultado de agregar a L un predicado de validez diádico Val(...,...), tal que Val(<Φ>, <Ψ>) valga si y sólo si el argumento que parte de Φ y concluye Ψ es lógicamente válido.3 La idea es que ese predicado sea primitivo. Por supuesto, requerimos dar una explicación del comportamiento “lógico” de esa expresión en el lenguaje. Aquí, V S 1 y V S 2 cumplen esta función:

V S 1: Para toda fórmula Φ y Ψ:

Si: Φ˫Ψ

Entonces:Ø˫Val(<Φ>, <Ψ>)

V S 1 codifica de manera natural la idea según la cual si tenemos una prueba de Ψ desde Φ, entonces el argumento con Φ como premisa y Ψ como conclusión es válido.

V S2:Para toda fórmulaΦ y Ψ:

Ø˫Val(<Φ>, <Ψ>)(ΦΨ)

V S 2 expresa que si un argumento es válido y aceptamos sus premisas, entonces aceptamos su conclusión.

Debe notarse que en ambas reglas, la noción de “`” intenta capturar la noción de prueba de la lógica correspondiente al lenguaje L+. Con todos estos requisitos, que parecen admisibles, estamos en condiciones de formular la primera paradoja de la validez. En pri-mer lugar, dado que hemos adoptado un L+ capaz de expresar la aritmética, aplicamos el lema de diagonalización al predicado:

Val(x, <>)

para obtener una oración tipo Curry tal que:

K  Val(<K>, <>)

En este punto, usando principios intuitivos para la validez, podemos derivar una paradoja que, por su semejanza con la de Curry, denominamos V-Curry:

[1] K Suposición para la aplicación de V S 1
[2 ] Val(<K>, <┴>) 1, diagonalización
[3] K →┴ 2, VS 2
[4] ┴ 1, 3
[5 ] Val(<K>, <┴>) 1-4, VS 1
[6] K →┴ 5, VS 2
[7] K 5, diagonalización
[8] ┴ 6, 7

Ésta es la paradoja que se describe en Beall y Murzi (2013). Los recursos asumidos para obtener trivialidad son:

  1. Lógica

  2. Aritmética de primer orden

  3. V S 1 y V S 2

Nótese que esta versión de V-Curry presenta semejanzas con la paradoja de Curry tradicional. Al igual que lo que sucede en este último caso, en esta versión se pone en evidencia el uso de las reglas lógicas del condicional. Así, V S 2 parece requerir que Val cumpla la versión correspondiente de Seudo Modus Ponens:

SMP ØVal(<Φ>, <Ψ>) (Val(<Φ>) Val(<Ψ>))

ya que deberíamos esperar que si Val(<Φ>, <Ψ>), entonces siempre que sea Val(<Φ> , también será Val(<Ψ>). Y V S 1 parece requerir que Val cumpla con la siguiente versión restringida del teorema de la deducción:

TD  SiΦΨ, entonces Val(<Φ>, <Ψ>)

ya que deberíamos esperar que, si cumple que hay una prueba de a partir de , tiene que cumplirse que hay una prueba sin el uso de ningún supuesto adicional de que Val(<Φ>, <Ψ>). Por supuesto, dados los recursos “lógicos” que parecen estar siendo utilizados (MP, SMP, TD) para obtener trivialidad en L+ podríamos estar tentados a pensar que existe una paradoja de la validez lógica para los lenguajes clásicos de primer orden. Más adelante veremos que hay dificultades con esta idea.

Por otra parte, dados los vínculos entre las nociones de consecuencia lógica y validez universal puede resultar útil (además de simplificadora) la siguiente versión de la paradoja. Sea L+ el resultado de agregar a L un predicado monádico Val(...), tal que Val(<Φ>) si y sólo si es válida universalmente. Puesto que hemos introducido un “nuevo” predicado, esto es, un predicado primitivo cuya interpretación pretendida es que se aplique a y sólo a aquellas fórmulas de L+ que sean lógicamente verdaderas, de nuevo necesitamos reglas que nos indiquen cómo usar correctamente este predicado. La idea es que validez, al igual que verdad, debería cumplir algunos simples principios intuitivos. Sean V S 1 y V S 2 las reglas que nos permiten introducir y eliminar el predicado en cuestión:

V S 1: Para toda fórmula Φ:

Si:   Φ

Entonces: Val(<Φ>)

V S 2: Para toda fórmula Φ:

Val(<Φ >) Φ

De manera intuitiva, las reglas nos dicen que todo teorema es válido y que, si hay una prueba de que algo es válido, hay que aceptarlo. Al simplemente aceptar estos principios parece poder formularse una paradoja que por diagonalización introduzca una oración que afirma de sí misma que no es válida. Esto es, por PA, puede obtenerse en L+ una oración tal que:

K¬Val(<K>)

Aquí, es fácil ver cómo trivializar estos principios usando pocos recursos. Llamo V-Curry a esta derivación de trivialidad.4

[1] ¬K→Val(<K>) Diagonalización
[2] Val(<K>) ! K V S2
[3] ¬K→K [1] y [2]
[4] K [3]
[5] Val(<K>) V S1 y [4]
[6] ¬Val(<K>) [4], oración diagonal

De esta manera, se obtiene como teorema en la teoría resultante de agregar a PA las reglas V S 2 y V S 1, una oración que afirma que no es válida. Al igual que con la oración del mentiroso, es un ejercicio fácil derivar una inconsistencia aplicando la lógica clásica. Los recursos que se han usado son:

  1. Lógica

  2. Aritmética de primer orden

  3. V S 2 y V S 1

Una estrategia habitual frente a resultados como los anteriores es analizarlos como resultados limitativos. Aquí ambas derivaciones estarían limitando la capacidad de hablar de la validez lógica usando los mencionados recursos. Validez, al igual que otros conceptos semánticos, sería una noción plagada de paradojas. En la siguiente sección analizaré algunas reacciones que muestran ciertas asimetrías entre el presente caso y el de la noción de verdad.

2. Algunas razones contra V-Curry

En este apartado muestro que no hay una paradoja de la validez lógica si limitamos nuestros recursos a los lenguajes clásicos de primer orden. Para dichos propósitos, es necesario sacar a la luz que hay algo erróneo en las anteriores derivaciones de trivialidad, cuando ellas se formulan adoptando esos recursos. En particular, presento un argumento que Jeff Ketland y Roy Cook formularon recientemente que sostiene que si Val(<…>, <…>) captura validez lógica, entonces la presunta derivación es una falacia, porque:

K  Val(<K>, <>)

no es una verdad lógica, y es, en cambio, un teorema de la aritmética. Por eso, las derivaciones de V-Curry resultan falaces: si lógica es lógica de primer orden, las aplicaciones de las reglas de la validez en las anteriores derivaciones de trivialidad son erróneas, pues suponen como lógicas las reglas de la validez, la cuales son simplemente expresables en la aritmética.

2. 1. La invalidez de las reglas de la validez

Diversos autores han argumentado que hay algo erróneo en las reglas de la validez adoptadas para derivar V-Curry. Por supuesto, la idea se conecta con el hecho de que las reglas de la validez podrían no estar siendo bien aplicadas. En especial, las sospechas recaen sobre las diversas formulaciones de V S 1. Así, tomemos la segunda derivación, la idea es que para concluir Val(<Φ>), Φ debería haberse obtenido como teorema simplemente por fundamentos lógicos siempre que Val(<…>) capture el concepto de validez lógica. Y tal cosa, se argumenta, no parece ser el caso. Siguiendo esta estrategia, algunos lógicos como Ketland (2012) y más recientemente Cook (2014) han ido incluso más lejos. Las sospechas sobre V S 1 los han llevado a negar que exista una legítima paradoja de la validez.

De este modo, de acuerdo con Ketland y Cook, si los predicados Val(<…>, <…>) y Val(<…>) en las dos anteriores derivaciones intentan capturar la validez lógica, los argumentos que concluyen trivialidad son un equívoco. El punto de partida de ambos es enfatizar el nexo entre validez y prueba. Dada una derivación lógica de una fórmula , estamos autorizados a inferir que Φ es válida. Una vez aludido este punto, la pregunta crucial es qué recursos son necesarios para producir V-Curry. Y, aquí, los autores nos piden que recordemos que la equivalencia entre K y Val(<K>, <┴>) no es una verdad lógica, sino una verdad aritmética. Es decir, debería notarse que cuando aplicamos el lema de diagonalización a una K tal que:

KVal(<K>, <>)

obtenemos un teorema de la aritmética. Por eso, la inferencia de [1] a [2] depende de la aritmética (y no sólo de la lógica). Y, como resultado de esto, la prueba de [1] a [4] no constituye una prueba de una contradicción que lógicamente se seguiría de la suposición inicial, sino que la aritmética junto con V S 2 implica que una contradicción se sigue a partir de K. Por eso, no sería correcto aplicar V S 1 en[5]. En este sentido, examinando la versión de Beall y Murzi sobre la paradoja, Jeffrey Ketland concluye que no deberíamos permitir el uso de la aritmética y las reglas de validez en la subprueba que termina con la aplicación de V S 1:

el hecho de que Φ sea un teorema de V-logic no implica que Φ sea en sí misma válida o lógicamente verdadera. Por ejemplo, Val(<0 = 0>) y Val(<0 = 1>)→ 0 = 1 son teoremas de V-logic, pero ninguna de las dos es válida. En forma análoga, el hecho de que se derive cierto resultado usando reglas o axiomas para los números naturales (e.g., el esquema de inducción o la regla de inducción o una regla ω) no implica que tales resultados sean válidos. En el marco habitual de la lógica de primer orden, la validez Φ de es equivalente a que Φ sea lógicamente derivable; y ésta es la razón por la cual la regla de introducción (V-In) se restringe. Por eso, se puede inferir Val(<Φ>) sólo si Φ ha sido derivada usando lógica. Si además han sido usados principios no lógicos para probar Φ, entonces podría no ser válida. (2012, p. 426; la traducción es mía.)

donde V-logic es interpretado como la noción de consecuencia lógica en la “lógica de la validez” y V-In (como la correspondiente V S 1).5 Sólo para enfatizar: ni la aritmética ni las reglas que rigen la validez serían lógicamente válidas. Por lo tanto, ni la aritmética ni las reglas de la validez pueden correctamente ser aplicadas junto con V-In (o la de la correspondiente V S 1). Por eso, habría varios pasos incorrectos en las derivaciones de V-Curry, producto de confundir asuntos aritméticos y semánticos con asuntos lógicos.

Nótese que no hay una analogía entre verdad y validez. Volviendo la segunda derivación de V-Curry, recuérdese que en esta versión tenemos una oración que afirma de sí misma que no es válida. Esa oración se demuestra dentro de una teoría H. Esa teoría debería ser una teoría de la validez capaz de probar que hay una oración que afirma su invalidez. El punto señalado es que en V-Curry se estaría demostrando una oración que no es válida usando recursos de una teoría que excede la validez lógica. Por eso, que una teoría que use más recursos que los lógicamente permitidos pruebe que una oración no afirma que ella no es válida no debería sorprendernos. Esto no es análogo al caso de la paradoja del mentiroso, en la cual nos está permitido usar más recursos que los recursos lógicos para generar la oración que produce la paradoja.

2. 2. La validez lógica puede capturarse en PA

Usando recursos de la lógica clásica, si se quiere evitar la trivialidad, verdad no puede capturarse dentro de PA. Ketland prueba, en cambio, que el predicado de validez lógica puede capturarse en PA, si la mencionada noción es entendida de manera correcta. Habíamos visto diversas sospechas acerca de V S 1. Sus aplicaciones en la presunta paradoja de la validez excedían el alcance de los recursos lógicos. Recuérdese que los recursos usados en las pruebas de V-Curry implican: lógica clásica de primer orden, aritmética de Peano formulada en primer orden y las reglas de la validez. Cook (2014) describe las cuatro posibles opciones para la formulación de la regla de introducción de la validez de la siguiente manera:

VS 1 L Si ├L Φ, entonces ├V log Val(<Φ>)
VS 1 L+PA Si ├L+PA, entonces ├ V log Val(<Φ >)
VS 1 L+V Si ├L+V, entonces ├ V log Val(<Φ >)
VS1 L+V+PA Si ├ L+V+PA , entonces ├ V log Val(<Φ >)

donde ├ V Log se interpreta como la noción de consecuencia lógica en la lógica de la validez; ├ L como la noción clásica de consecuencia lógica para los lenguajes de primer orden; ├ L+V como la noción de consecuencia lógica a la que se le agregan los recursos deductivos de las reglas de la validez; ├ L+PA como la noción de consecuencia lógica a` la que se le adicionan los recursos de la aritmética y, finalmente, ├ L+V+PA como la noción de consecuencia lógica a la que se le suman todos los recursos mencionados.

En este punto, Ketland defiende que sólo V S 1 L es admisible. El cambio más relevante es en el antecedente de la regla V S 1 que prohíbe el uso de la aritmética o las reglas de validez en las subpruebas que terminan con la aplicación de V S 1. Sólo aquello que es probado usando recursos lógicos es declarado como válido dentro de la lógica de la validez. Aquello que para ser probado requiere más recursos (las reglas de la validez y la aritmética) no puede ser estrictamente declarado lógicamente válido.

Ketland muestra que bajo esta formulación de las reglas de la validez ellas continúan valiendo en PA. Esto significa, sencillamente, que la validez lógica es expresable usando recursos aritméticos (a diferencia de lo que sucede con el concepto de verdad). De hecho, la teoría ampliada con las reglas (“correctas”) de la validez es una extensión conservadora de PA. Para apreciar el punto, sea L PA un lenguaje de primer orden capaz de expresar las nociones de la aritmética. Sea L PA+ el resultado de agregar a L PA el predicado de validez. Entonces sea PA H la aritmética de Peano formulada en L PA+ con inducción aplicable incluso a las fórmulas de L PA+ .

TEOREMA 1 (Cook 2014): PA H es una extensión conservadora res-pecto de PA.

Su prueba es como sigue: Sea Val(x, y) = BewØ(x, y), esto es, un predicado de L PA+ que codifica de un modo natural en la aritmética el conjunto recursivamente enumerable de argumentos lógicamente válidos (incluyendo el caso límite de verdades lógicas). Entonces es sencillo mostrar que las reglas de Val reinterpretadas con BewØ(x, y) extienden consistentemente a PA.

PA H = PA U{BewØ(<Φ>, <Ψ>) → (Φ→Ψ)}, donde “Φ” y “Ψ” están en el lenguaje de PA. De lo que se sigue que V S 1 L y V S 2 son interpretables en PA H .

  • [1 ] Si: Φ├ PA Ψ entonces: Ø PA BewØ (<Φ>, <Ψ>)

  • Por eso: Ø ├ PAH BewØ(<Φ>,<Ψ>)(ya que PA H extiende PA)

  • [2 ] Para cualquier Φ y Ψ:

  • Ø├PAH BewØ(<Φ>, <Ψ>) → (Φ→Ψ)

Por lo tanto, si V S 1 L +V S 2 +PA fueran inconsistentes, entonces PA H sería inconsistente. PA H , sin embargo, es verdadera en el modelo estándar de PA. Por lo tanto, no puede ser inconsistente.

COROLARIO 1 (Ketland 2012):

  • Sean:

  • V S L : Si ├ CL Φ, entonces ├ V- log Val(<Φ>), donde CL es la noción clásica de consecuencia

  • V S 2: V -Log Val(<Φ>)→Φ

  • SMP: V -Log Val(<Φ→Ψ>) →(Val(<Φ>)→Val(<Ψ>))

donde ├ CL es la noción clásica de consecuencia y ├ V-Log la noción de consecuencia de la lógica de la validez. Esto conduce a que:

V S1L U V S2 U SMP U PA es consistente.

La prueba simplemente es una consecuencia inmediata del teorema 1.

Recordemos que estos resultados se obtienen a partir del hecho de que el conjunto de las verdades lógicas (y razonamientos válidos) puede ser codificado en la aritmética de primer orden por medio de un predicado de prueba. En este caso, puesto que las reglas de la validez pueden agregarse de manera consistente a tal sistema, no puede haber una paradoja de la validez (al menos si el funcionamiento lógico de esa noción está dado por las mencionadas reglas). Y, debido al resultado de completitud de la lógica de primer orden que vincula validez con prueba, no parece haber lugar para el surgimiento de paradojas de la validez.

3. Paradojas de la validez con recursos lógicos robustos

Los resultados desarrollados en el punto anterior son correctos. No obstante, hemos visto que tanto Ketland como Cook extraen de ellos una fuerte conclusión: que no hay una V-Curry. En este aparta-do sostengo que para defender esa tesis hay que asumir, además, otros resultados y supuestos que no están suficientemente justifica-dos. Como hemos visto, un punto importante presente en las pruebas es la identificación de validez con la noción de derivación usando sólo recursos de la lógica clásica de primer orden. Esta identificación, por supuesto, está correctamente apoyada en el resultado de completitud. Así, las reglas de la validez (originales), junto a la aritmética, serían capaces de derivar una contradicción a partir de la oración V-Curry. Pero eso no revela que hay una inconsistencia lógica, ya que usando sólo recursos lógicos seríamos incapaces de obtener tal contradicción. Admitiendo este punto, Murzi y Shapiro (en prensa) y Murzi (2014) han explorado nociones de validez alternativas a la validez lógica (por ejemplo, preservación de verdad en virtud del significado) concediendo, al menos en parte, que la mencionada noción lógica puede permanecer inmune a las paradojas. Considero que esta estrategia es interesante. Sin embargo, creo que concede demasiado, ya que abandona la posibilidad de hablar de una paradoja acerca de la validez lógica.

De acuerdo con mi punto de vista, la lógica de orden superior sugiere otro camino para el surgimiento de paradojas en lenguajes semánticamente cerrados, pues, en este caso, debido a la falla de completitud, se “rompe” el vínculo entre prueba (proof-theoretical validity) y validez semántica (modeltheoretical validity). Así, sean V al p (<…>) y V al S (<…>) predicados cuya interpretación pretendida es validez en sentido sintáctico y validez en sentido semántico, res-pectivamente. Es una consecuencia de los teoremas de incompletitud que la noción de validez de las teorías lógicas de orden superior no puede ser capturada por medio de un sistema de prueba.6 Tomemos el caso de los sistemas lógicos de segundo orden. Aquí, el conjunto de las verdades lógicas de estos lenguajes interpretados con semántica estándar no es semirrecursivo. Por lo tanto, y a diferencia de lo que ocurre en el caso de primer orden, no puede haber un sistema de-ductivo efectivo y completo que pruebe todas las fórmulas válidas de un lenguaje de segundo orden. Este resultado abre la posibilidad de encontrar nuevos riesgos, si tenemos el proyecto de capturar dentro de un lenguaje con recursos de orden superior su propio predicado de validez semántica. Por eso, defiendo la idea según la cual la posición de Ketland-Cook asume una tesis demasiado conservadora acerca de lo que es lógica y lo que no. Roto el vínculo entre validez lógica y derivabilidad en la lógica clásica de primer orden, la validez lógica resulta inexpresable en la aritmética. Tal resultado abre la posibilidad de encontrar dificultades para el desarrollo de una lógica de la validez para lenguajes con recursos de orden superior.

3. 1. Validez semántica, aritmética y trivialidad

TEOREMA 2: la aritmética no puede capturar el predicado de validez semántica de la lógica de segundo orden.

Esquema de la prueba: supongamos, como hemos dicho, que V al S (<…>) es un predicado que captura la validez modelo-teórica de una teoría lógica de segundo orden en PA 2. Entonces, las reglas para V al S (<…>) deberían ser consistentes con PA 2. Sin embargo, tal cosa no es posible, pues sabemos que PA 2 da una descripción categórica del modelo estándar de la aritmética. Sea “N” ese modelo. Sea “Φ” una fórmula en el lenguaje de la aritmética que sólo contiene cuantificadores de primer orden. Recuérdese que PA 2 es finitamente axiomatizable. Sea ^PA 2 la conjunción finita de los axiomas de la aritmética de segundo orden. Entonces,

NΦ ssi V alS (<  PA2 Φ>)

Pero, por el teorema de Tarski, esta equivalencia expresa una condición que no puede ser aritméticamente capturable. Por lo tanto, validez lógica de segundo orden tampoco puede serlo.

Esto significa que, a diferencia de lo que sucede con la noción de validez para los lenguajes de primer orden, la aritmética no puede capturar consistentemente la noción de validez semántica para los lenguajes de orden superior. Por eso, la estrategia de Ketland que muestra que hay una extensión conservativa de la aritmética capaz de capturar la mencionada noción no está disponible para el presente caso.

3. 2. Hacia una V-Curry usando recursos de orden superior

Sea L SO un lenguaje de segundo orden capaz de expresar las nociones de la aritmética. Sea L SO+ el resultado de agregarle a L SO el predicado de validez V al S (<…>). Finalmente sea H' la teoría de segundo orden resultado de agregar a la lógica de segundo orden las siguientes reglas de la validez:

  • i) V S 1 ├: Si ├ H Φ entonces ├ H' V al S (<Φ>)

y

  • ii) V S 2 : Si H' V al S (<Φ>)→Φ

Por supuesto, la idea es que estas reglas capturen la noción de validez de la lógica de segundo orden. La siguiente demostración revela que tal suposición genera una V-Curry. Ahora bien, es importante recordar que, a diferencia de la aritmética de primer orden que contiene una formulación esquemática del principio de inducción matemática, la aritmética de segundo orden es finitamente axiomatizable. Por la conocida técnica de Ramsey, al usar recursos de orden superior, podemos capturar directamente las nociones aritméticas necesarias para diagonalizar como parte de los recursos expresivos de la lógica. Sea ˄PA 2 la conjunción de los axiomas de PA 2. Así se obtiene en H' una oración KV al S (<K ˄ PA 2> → <┴>).

TEOREMA 3: H es inconsistente7

[1] K˄PA 2 Premisa
[2] K E ˄[2]
[3] ˄PA 2 E ˄ [2]
[4] K  V alS (K PA2,) Diagonalización
[5] V alS  (KPA2, ) MP [1] y [5]
[6] VS 2 [1]-[6]

Pero, por V S 1

[7] V alS  (KPA2, ) VS 1 [1]-[7]
[8] K MP [1] y [8]
[9] K^PA 2 I ˄ [9] y [2]
[10] VS 2 [10]-[8]

En efecto, la prueba puede generalizarse. Y lo que ésta demuestra es que el argumento con la conjunción de los axiomas de ˄PA 2 junto a la oración K como premisa, donde ┴ es válido, significa que H' es trivial.

TEOREMA 4: sea H' una teoría resultado de extender una axiomatización de la lógica de orden superior (LOS) con las siguientes reglas de la validez:

  • i) V S 1 ├: 0 Si ├ H' Φ entonces ├ H' V al S (<Φ>)

y

  • ii) V S 2 ├: ├ H' V al S (<Φ>)→Φ

Entonces, H'es inconsistente.

Las pruebas del primer apartado muestran cómo probar una inconsistencia en H' a partir de la generación de una oración K. Lo que significa que no es posible capturar la noción de validez semántica para la LOS en una H' que sólo agregue a la LOS las mencionadas reglas de introducción y de eliminación de la validez.

Estos resultados son de vital relevancia para la admisión de una legítima paradoja de la validez para el caso de los lenguajes semánticamente cerrados de orden superior:

  1. Muestran que el estatus no lógico de la aritmética es irrelevante en la derivación de la paradoja.

  2. Marcan una diferencia entre el caso de primer orden y el resto. Recuérdese que el corolario 1 del teorema 1 ofrece una prueba de consistencia relativa a la aritmética de primer orden de las reglas de la validez. Sin embargo, el teorema 2 muestra que no tenemos tal cosa cuando usamos recursos de orden superior.

  3. Determinan que una teoría de la validez bajo la lógica de orden superior, esto es, una extensión de la mencionada lógica junto a las reglas de la validez, produce trivialidad. Es decir, a diferencia del caso de primer orden, la validez no puede ser capturada por medio de una teoría que extienda los recursos de orden superior con reglas que intenten determinar el funcionamiento de la mencionada noción.

  4. Concentran la discusión sobre el estatus lógico de las reglas de la validez. En la prueba del teorema 3, a diferencia de lo que sucede con el caso de primer orden, introducimos el predicado de validez en un contexto donde sólo se han usado recursos lógicos y las reglas de la validez. Por eso, para evaluar el surgimiento de una paradoja, debe focalizarse en el estatus lógico de las mencionadas reglas.

Estas conclusiones son suficientemente significativas y se les deben destacar. El desarrollo de una teoría de la validez H para lenguajes semánticamente cerrados que contengan recursos lógicos de orden superior presenta un obstáculo insalvable, si esos recursos son clásicos. Esto es, la versión de

VS1L+V SiL+VΦ,  entoncesV- log Val(<Φ>)

resulta inaceptable para lenguajes con los mencionados recursos. Una teoría de la validez H' que incluya recursos lógicos de orden superior y las versiones correspondientes de las reglas de la validez resulta trivial, por lo cual, no parece haber una manera naïve de capturar la mencionada noción que no genere una inconsistencia.

Sin embargo, queda abierta la discusión sobre el estatus lógico de las reglas de la validez. Para tal discusión es crucial considerar a H como una teoría que sólo incluye recursos lógicos. Por eso, las reglas que presuntamente gobiernan el comportamiento inferencial de la noción de validez también deberían considerarse lógicas. De este modo, si resultara imposible bloquear la derivación de V-Curry en la lógica de orden superior incrementada con las reglas correspondientes de la validez, habría una legítima paradoja de la validez lógica. Es decir, dado que la validez no puede ser codificada en la aritmética, y sólo podría serlo por medio de reglas primitivas como V S 1 y V S 2, una lógica de la validez que con las reglas de la validez extendiera a la lógica de orden superior resultaría inconsistente.8 Si las reglas de la validez fueran “lógicamente válidas”, y sus aplicaciones generaran trivialidad, habría lugar para la generación de una V-Curry. Por supuesto, esto aún no es suficiente para rechazar la posición de Ketland-Cook según la cual no hay una legítima paradoja de la validez lógica. Resta argumentar a favor de la validez de las reglas de la validez.

3. 3. La validez de las reglas de la validez

Es claro que para que las reglas de la validez puedan ser consideradas lógicamente válidas hay que argumentar que la noción de validez es una noción lógica. Si bien las mencionadas reglas son intuitivamente válidas en sentido semántico, o sea, V S 1 es transmisora de verdad y V S 2 es siempre verdadera, esta información podría ser insuficiente para establecer el carácter lógico de la mencionada noción. Con todo, es preciso notar que cuando estamos trabajando en orden superior (debido a la carencia de un resultado como el de Kreisel para los lenguajes de primer orden que establece la equivalencia extensional entre las nociones de validez intuitiva y de validez modelo-teórica), la nombrada noción intuitiva cobra una importancia especial. Así, tomemos, por ejemplo, la siguiente inferencia:

  • 0 cumple la condición F

  • 1 cumple la condición F

  • 2 cumple la condición F

  • ... .

  • n cumple la condición F

  • Por lo tanto, todo número natural cumple la condición F

donde n se aplica a cualquier expresión que denota un número natural. Es intuitivamente cierto que la oración universal se sigue de la totalidad de las oraciones particulares. Esto es, si todas las premisas de esta regla son verdaderas, la conclusión debe serlo. Incluso, como es bien conocido, esta inferencia la destaca el propio Tarski como caso de validez lógica (Tarski 1936), y parece claro que, si esta inferencia infinitaria es intuitivamente válida en el mismo sentido, las reglas de la validez también deberían serlo en el mismo sentido.

Sin embargo, sería posible pensar que la preservación de verdad en sentido intuitivo no es suficiente para que una regla sea lógica-mente válida. Es decir, podría argumentarse que hace falta algo más para que las reglas de la validez sean consideradas lógicas. Podría señalarse, por ejemplo, que hay inferencias transmisoras de verdad que no son lógicamente válidas. En este sentido, la noción misma de validez podría no ser considerada una expresión lógica y entonces, aunque mostremos que teorías como H' son inconsistentes en cuanto teoría de la validez, esta inconsistencia no sería demostrada usando sólo recursos lógicos. Ésta parece ser la línea que Ketland y Cook siguen para exportar los problemas fuera del ámbito lógico. Claro que hay importantes matices que diferencian la actitud de ambos. En el caso de Ketland, es evidente que él asume que validez no es una noción lógica, quizá porque le parezca una posición obvia de adoptar. Probablemente, tal visión esté comprometida con la idea de que hay características constitutivas acerca de la naturaleza de las expresiones lógicas y que tal cosa nos permite trazar una clara demarcación entre lo que es lógico y lo que es extralógico, colocando a validez en este último grupo.

No obstante, considero que ambos aspectos (naturaleza y demarcación de lo lógico) están sujetos a discusión, y no resulta fácil dar una caracterización precisa sobre lo que significa que una expresión sea lógica. En efecto, se puede mantener que hay una división entre expresiones lógicas y no lógicas, sin defender la tesis según la cual hay algo que esencialmente convierte en lógica a una expresión. O incluso se puede ir más allá y dudar acerca de la posibilidad de trazar una correcta demarcación entre lo que es lógico y lo que no lo es. Tal demarcación podría ser incluso vista como un seudoproblema (Etchemendy 1990, Barwise y Feferman 1985, Gómez Torrente 2002, Read 1994).9 Todo criterio que se ofrezca podría estar fuera de lugar, ya que estaría limitando la posibilidad del estudio de las inferencias correctas de un nuevo campo de aplicación. Por ello, y a diferencia del tratamiento de Ketland, la cuestión dista de ser evidente. Y, ciertamente, también quiere decir que existe una dificultad inicial para dar un argumento concluyente a favor de considerar la noción de validez como una noción lógica. Empero, intentaré dar plausibilidad a tal decisión, descartando cada una de las potenciales razones en contra de considerarla una razón lógica.10

Una primera objeción es la siguiente: las nociones lógicas son invariantes, esto es, sus interpretaciones deben quedar fijas en todo modelo admisible. Pero, parece evidente que la validez no posee esta característica. Tal como aparentemente sucede con otros predicados, por ejemplo ser mayor que o ser un número natural, parece haber reinterpretaciones posibles a Val(...), que la convierten en un típico caso de expresión extralógica. Sin embargo, considero que, aunque las dudas en esta dirección sean atendibles, no es claro que exista un modo natural de establecer cuáles son los modelos admisibles sin presuponer ya una demarcación. Piénsese en nociones como creencia y conocimiento, necesidad y posibilidad, que pueden ser o no ser consideradas lógicas dependiendo de cómo se estipulen los modelos admisibles. Así, una lógica de la validez tanto como una lógica de la verdad parecen correr la misma suerte que una lógica epistémica o modal. Por supuesto, esto no significa mantener que no hay una división entre expresiones lógicas y no lógicas. Simplemente, no es claro que haya algo que impida esencialmente dejar fija la interpretación de tales nociones, haciendo que su comportamiento sea el de una expresión lógica. Esto es, no parece haber ninguna característica intrínseca que permita establecer una única y correcta división, ya que se puede especificar la clase de los modelos admisibles de diferentes maneras y, dependiendo de cómo se haga esto, se establecerán diferentes divisiones entre lo lógico y lo extralógico. Claro que para eso hay que definir una clase de interpretaciones admisibles y, lo que es más central aún, hay que preguntarse si hay buenas razones para mantener fija la interpretación de validez. De manera general, estas razones usualmente están vinculadas a la necesidad de mantener fija la interpretación de una noción para abrir un nuevo rango de posibilidades en el estudio de las inferencias. En este punto, hay razones expresivas relacionadas con la noción de validez que motivan el estudio de la corrección de las inferencias asociadas al mencionado concepto. Es decir, cuando evaluamos sistemas lógicos afirmamos que:

Todos los teoremas de una lógica son válidos

o que:

Las fórmulas de un lenguaje son válidas o no lo son.

Y, en especial, cuando trabajamos con teorías lógicas de orden superior, decimos que:

La totalidad de las fórmulas válidas no pueden ser axiomatizadas.

Tales generalizaciones, al igual que lo que ocurre con aquellas que involucran el concepto de verdad, desempeñan un papel expresivo relevante en nuestras reflexiones acerca de la lógica. Es evidente que razonamos usando estos conceptos que permiten capturar información que de otra forma no podría expresarse. Y podríamos estar interesados en saber si lo estamos haciendo correcta o incorrecta-mente. El papel de la lógica como reguladora de nuestras prácticas argumentativas resulta fundamental en este asunto. De esta manera, podríamos estar interesados en desarrollar una lógica acerca de la noción de validez que delimite los principios inferencialmente correctos vinculados a esta noción, manteniendo fija la interpretación de un predicado Val(. . . ) restringiendo los modelos admisibles.

Evidentemente podría insistirse en que, más allá de si resulta o no plausible restringir los modelos admisibles para fijar la interpretación de validez, lo lógico requiere siempre neutralidad ontológica. Lo cual quiere decir, entre otras cosas, no tener que incluir entidades especia-les cuando evaluamos la admisibilidad de un potencial modelo. Esto es, lo que sería constitutivo a una expresión lógica es ser insensible a las identidades particulares de objetos. Así, tales nociones debe-rían ser inmutables a cualquier permutación arbitraria del dominio de objetos. Su contenido debería permanecer inalterado bajo toda permutación de los modelos que permita alterar las interpretaciones. Más aún, las constantes lógicas no deberían ser sensibles a la particular presencia de individuos en el dominio. Una ventaja de este criterio, además, es que parece estar filosóficamente bien motivado: la invariabilidad bajo permutación parece reflejar tanto la formalidad de las nociones lógicas (Sher 1991), como su generalidad (Tarski 1986) y la neutralidad de la lógica respecto de su tema. Las nociones invariantes son formales y neutrales en el sentido de no depender de la identidad o elección particular de los objetos de un dominio de discurso. Este criterio también parece, al menos en un principio, exitoso para clasificar lo que intuitivamente parece lógico y lo que no.11 De este modo, la objeción sería que validez no es una noción lógica, ya que es un predicado que se aplica a objetos específicos: fórmulas de un lenguaje. Su aplicación requiere la existencia de fórmulas como objetos del dominio.

No obstante, es conocido que este criterio tiene inconvenientes con diversas expresiones no extensionales. De nuevo, nociones como necesidad, creencia o conocimiento son dependientes de dominios de mundos posibles, estados epistémicos y sus relaciones de accesibilidad. Ellas son sensibles a dominios particulares de objetos. Dejarlas fuera del ámbito de lo lógico no parece corresponderse con la práctica real de la disciplina. De acuerdo con este criterio, las lógicas epistémicas y modales no son lógicas. Tampoco las temporales. Dudas similares podrían plantearse con los cuantificadores de orden superior, ya que en su semántica estándar comprometen también cierto tipo de entidad específica: los conjuntos. Así, la interpretación de los cuantificadores de segundo orden no sólo necesita especificar un dominio de individuos sino el conjunto de los subconjuntos de los mismos, sobre los cuales los cuantificadores tienen su alcance. Y otra vez, las mismas consideraciones podrían hacerse con la noción de validez lógica. Si bien es claro que ella es sensible a la existencia de objetos particulares, dejarla fuera del ámbito de lo lógico por esta razón nos obliga a dejar también afuera otras nociones que por lo general son consideradas como lógicas. Incluso dentro de aquellos predicados que presuntamente cumplen requisitos como el de identidad, hay quienes han argumentado que podrían existir dudas razonables sobre la presunta neutralidad. Por ejemplo, Varzi (2002) sostiene que si se admiten modelos con objetos no idénticos a sí mismos, la identidad no debería ser considerada una noción lógica.

Antes afirmé que Ketland asume que validez no es una noción lógica. Pero Cook presenta una estrategia diferente. Él y yo aceptamos que la lógica es una disciplina formal, pero también defiende que validez no es una noción formal (Cook 2014). Su argumento requiere una respuesta si queremos tomar la decisión de fijar los modelos admisibles para que la interpretación quede fija. De acuerdo con Cook, la naturaleza formal de la validez requiere que instancias de sustitución uniforme de fórmulas lógicamente válidas sean lógica-mente válidas. Si la validez lógica debe ser cerrada bajo el requisito de sustitutividad, las reglas V S 1 y V S 2 deberían cumplir tal criterio. Sin embargo, el siguiente argumento mostraría que no lo cumplen.

Sustitutividad lógica:

Para toda fórmula Φ1, Φ 2, expresión no lógica Ψ y expresión β del mismo tipo que Ψ, si

Φ1 Φ2

es un argumento válido, entonces

Φ1Ψ/βΦ2Ψ/β

es un argumento válido. Pero Cook argumenta que si asumiéramos que V S 1 y V S 2 son reglas lógicas, y se respetara la sustitutividad, se pueden probar afirmaciones absurdas:

Seudoteorema: V al(<Φ1> + n, <Φ2>+n) es una verdad lógica.

Prueba:

Φ1Φ2

Ya que V S 1 es válida, obtenemos:

Val(< Φ1>, <Φ2>)

Pero nótese que la fórmula anterior es de la forma

V al(s( s(0) . . . ), s(. . . (s(0). . . )))

Y, por sustitutividad lógica, remplazamos “0” por un n, tal que n: s(s(s. .`. (0). . . )).

Val(< Φ1>+N, <Φ2>+n)

Es decir, para un n arbitrario, obtenemos que son verdades lógicas todas las instancias de

Val(< Φ1>+n, <Φ2>+n)

O sea, dado que validez es sensible al código aritmético que se utilice para representar las pruebas, de acuerdo con este criterio esta noción parece no caer del lado de lo lógico. Claro que lo anterior significaría que las reglas de la validez no son legítimas reglas lógicas.

Si bien es cierto que la noción de validez, al igual que las de verdad y prueba, es dependiente del código numérico, considero que esta dependencia no impide trabajar dentro de una lógica de la validez. Simplemente, el precio a pagar es que hay que fijar el código, usando nombres con una interpretación fija. Hay diversas maneras de hacerlo. Una opción es que algunos de los miembros del dominio funcionen como nombres lógicos de las fórmulas del lenguaje. Por ejemplo, David Ripley sigue esta opción en su lógica de la verdad transparente (2012). Sus modelos incluyen un conjunto de nombres canónicos para cada oración del lenguaje. Otra opción es trabajar directamente con modelos estándar (como lo hace Field (2008) en su lógica de la verdad transparente). Otros imponen restricciones a las reglas del sistema de prueba. Por ejemplo, Kremer, quien trabaja directamente con nombres (quotation names) con una interpretación fija impuesta con la siguiente regla del cálculo de secuentes (1988, pp. 256-259):

Si A, B  Sent y A  B, A = B  y  A  B

En todos los casos, se trata de mecanismos que evitan la sustitutividad en contextos afectados por el predicado de validez. Tal solución técnica evita las pruebas de los “seudoproblemas” a la Cook.

En síntesis, las reglas de la validez son transmisoras de verdad. Y aunque puedan existir dudas razonables acerca de cómo producir un tratamiento formal de un predicado de validez, esas dudas también se extienden a otras nociones que razonablemente forman parte de lo lógico. Desde un punto de vista técnico podemos restringir los modelos admisibles para fijar la interpretación de cualquier predica-do. Lo mismo podríamos hacer con los nombres para evitar fallas en la sustitutividad. Y lo que es más importante, saber qué inferencias que usan el concepto de validez son correctas o cuáles no lo son parece ser un motivo suficiente para iniciar una exploración lógica. Sin embargo, a diferencia de lo que sucede en primer orden, no tenemos un resultado de capturabilidad de validez en la aritmética que asegure consistencia (y, por lo tanto, nos haga desconfiar de la existencia de una legítima V-Curry). Más aún, la noción de validez lógica (semántica) para los lenguajes de orden superior es demasiado compleja como para poder ser capturada dentro del propio lenguaje. La suposición contraria origina una V-Curry que trivializa la extensión de la LOS con las correspondientes reglas de la validez. Esto significa que, a diferencia de lo que Cook y Ketland sostienen, el concepto de validez es asimismo un concepto problemático: la idea de evitar jerarquías, desarrollando una lógica de la validez dentro del lenguaje, también está sujeta a problemas.

4. Revisando la lógica a la luz de las paradojas

El hecho de que validez, al igual que verdad, sea un concepto que necesita ser salvado de las paradojas, puede extenderse a otras teorías. En este apartado voy a argumentar (i) que ciertos debilitamientos de la lógica clásica producidos con el objetivo de explicar el comportamiento de la noción de verdad transparente podrían generar una V-Curry, si se intentara a la vez capturar la noción sintáctica de validez y (ii) que la ampliación de los recursos expresivos dentro de un lenguaje que tratara de capturar la noción de validez semántica para la lógica de la verdad transparente desarrollada por Hartry Field también podría producir una V-Curry, ya que tal proyecto involucra-ría tanto la utilización de recursos de orden superior como las reglas de la validez en su formulación modelo-teórica.

Es bien conocido que, en años recientes, diversos autores han defendido la idea de revisar la lógica clásica a la luz de las paradojas semánticas. La propuesta es modificar la mencionada lógica con el propósito de caracterizar todas las nociones semánticas, incluyendo la noción de verdad, sin que se genere trivialidad. Si prestamos atención al uso del predicado veritativo en los lenguajes naturales, los vínculos entre aserción y verdad parecen indicar que la verdad debería ser transparente: lo que aceptamos es lo que tomamos como verdadero y lo que rechazamos es lo que no lo es. Así, por ejemplo, al aceptar que la nieve es blanca nos vemos comprometidos con su verdad, y si lo rechazáramos nos comprometeríamos a tomarlo como no verdadero. Sea Tr(. . . ) el predicado veritativo de un lenguaje, α una oración y <α> un nombre para . Técnicamente, la transparencia de la verdad consiste en que para toda , Tr(<α>) y α son intersustituibles en todos los contextos no opacos. Así, si

αα

entonces, asumiendo que el condicional no genera contextos opacos se sigue por transparencia que:

Tr(<α>)  Tr(<α>)

Como he mencionado en el primer apartado de este trabajo, las modificaciones a la lógica clásica, producto de intentar capturar la noción de verdad transparente, deberían involucrar cambios en las propiedades lógicas de la negación (intentando evitar las conocidas oraciones mentirosas reforzadas) y del condicional (intentando evitar la paradoja de Curry). Un punto a destacar es que, luego de muchos años de trabajo, sabemos que las modificaciones deberían ser importantes. No es tan sólo que evitar las limitaciones expresivas producto del teorema de Tarski supone apartarse “un poco” de la lógica clásica. En particular, Restall (2007) muestra que la reforma debería ser drástica para el caso de la paradoja de Curry tradicional. Reglas lógicas como el MP y el TD, que son básicas en la caracterización de los condicionales, están en el centro de la disputa. Dado el paralelismo entre la paradoja de Curry tradicional y V-Curry, podemos extender las enseñanzas de Restall a un lenguaje que pretendiera, modificando sus propios recursos lógicos, capturar su propia noción de validez.

Sea H' una lógica de la validez (con respecto a un lenguaje L que incluye recursos autorreferenciales). Asumamos que H' es una teoría no clásica que incluye MP, SMP y TD, pero no otros principios inferenciales clásicos. Supongamos que el predicado V al S (<…>) es capaz de capturar la noción de validez semántica en H' . Esto significa que la teoría debe ser cerrada bajo las reglas naïve de la validez. En particular, las siguientes reglas de la validez deberían ser lógicamente válidas:

VS1 :        SiH'Φ, entonces H'V alS (<Φ>)

VS2 :   H'V alS(<Φ>)Φ

donde la noción H debe interpretarse como la noción de prueba de una lógica de la validez. Esto es, a diferencia de lo que sostienen Ketland y Cook, los recursos lógicos no son los de la lógica clásica de primer orden, sino los de una lógica revisada que permita sin trivialidad capturar la noción de validez. Por eso, nuevamente en la “lógica de la validez” H', VS 1 es VS 1 L+V+PA , es decir, los recursos lógicos de H' incluyen diagonalizar y las reglas de la validez.

TEOREMA 5: la lógica revisada H' es inconsistente.

Esquema de la prueba: las versiones de V-Curry del primer apartado muestran que tal lógica resultaría trivial, de lo que se sigue que, para evitar la trivialidad, validez para teorías lógicas del tipo de H resulta una noción inexpresable dentro de la teoría. Nótese, de paso, que MP, SMP y TD son principios realmente muy básicos. Por lo cual, los intentos de capturar validez revisando la lógica deberían explorar su abandono. Por supuesto, este camino tendría diversos inconvenientes. Más allá de la plausibilidad de una lógica sin MP, por ejemplo, quedaría aún la necesidad de explicar cómo compatibilizar tal abandono en una lógica que pretende capturar a la vez la nociones de verdad transparente y validez (entendida esta última como transmisión de verdad). Transmisión de verdad y MP parecen ir de la mano. Recordemos que la versión correspondiente de Seudo Modus Ponens:

SMP     H' V alS (< Φ>, <Ψ>) (V alS (<Φ>) V alS (<Ψ>))

parece desempeñar un papel central en una lógica que pretenda capturar validez.

Ahora bien, más allá de los principios inferenciales que debería evitar una lógica de la validez para no producir el surgimiento de inconsistencias, existe un segundo problema vinculado a la noción de validez semántica que también podría provocar limitaciones expresivas. Es común que una lógica de la verdad, esto es, un intento de revisión de la lógica clásica a la luz de las paradojas, por lo general sea presentada semánticamente. Esto se debe, en parte, a que expresar la transparencia de la verdad puede exceder en complejidad el marco de las teorías de primer orden.

Sea L un lenguaje de primer orden con vocabulario aritmético y N el modelo estándar de la aritmética. Sea L+ una extensión de L que contiene un predicado veritativo Tr y un condicional especial → cuyas leyes lógicas serán establecidas por medio de una construcción modelo-teórica. El enfoque de Hartry Field (2008) acerca de la noción de verdad transparente ofrece una lógica que permite definir el conjunto de fórmulas y razonamientos lógicamente válidos para el lenguaje L+. Tal lógica de la verdad transparente conserva las leyes de la lógica clásica para L y revisa las mismas para L+. De este modo, se alteran las leyes lógicas (no se aceptan el tercero excluido, la TD ni las leyes de absorción, por ejemplo) para evitar paradojas dentro de un lenguaje capaz de expresar sus propios recursos semánticos. En esta teoría, para darle una valuación a todas las fórmulas de L+, se combinan las técnicas kripkeanas que apelan a la idea de que la ver-dad es un punto fijo, con la técnica utilizada por los defensores de la teoría de la revisión que posibilita interpretar el predicado veritativo por medio de secuencias de revisión. Hay diferencias, sin embargo, con el enfoque de Gupta y Belnap (1993). En primer lugar, en vez de utilizar secuencias de revisión para interpretar el predicado veritativo, Field las usa para asignar valuaciones al condicional especial →(i.e., un condicional no clásico pero que cumpla principios lógicos razonables). En segundo lugar, las secuencias de revisión para esos condicionales se construyen sobre la base de una semántica con tres valores de verdad (1, 12, 0) en lugar de dos.12 No se necesita entrar en demasiados detalles técnicos para apreciar mi punto, sólo hace falta recordar que la interpretación de L+ en términos de un vocabulario conjuntista se comporta clásicamente. En general, la idea en el enfo-que de Field consiste en construir dos secuencias: una de valuaciones para condicionales y una de puntos fijos para las demás expresiones del lenguaje (incluyendo el predicado veritativo del propio lenguaje). La primera secuencia parte de la valuación que le asigna 12 a todos los condicionales. La segunda parte del punto fijo mínimo de Kripke. Para obtener los restantes miembros de la secuencia de valuaciones para condicionales se aplica una regla de revisión que le asigna el valor 1 al condicional A→B si a partir de algún punto de la secuen-cia de puntos fijos el valor de A es menor o igual al de B. Por otra parte, para obtener cada miembro de la secuencia de puntos fijos se aplican las cláusulas de K3 junto con el hecho de que el predicado veritativo es transparente. Todo este proceso de revisión de valores de verdad a las fórmulas L+ se realiza dentro de una secuencia de ordinales con objeto de asignar un valor de verdad estabilizado. De tal manera, el valor último de una fórmula A perteneciente a L+ está dado por el punto fijo kripkeano obtenido como consecuencia de este proceso de revisión. El valor último de A indica en qué valor se estabiliza A en una secuencia de revisión. A modo de ejemplo, la oración del mentiroso no genera inconsistencias, ya que adquiere el valor 12 en el punto fijo mínimo y mantiene ese valor a lo largo de toda la secuencia de revisiones.

Un resultado importante vinculado a este enfoque, probado por Field (2008), es la existencia de un ordinal aceptable que permita generar las secuencias de revisión necesarias para las asignaciones de valores semánticos a todas las oraciones del lenguaje. Es decir, puede mostrarse que hay un ordinal Δ tal que para toda fórmula A perteneciente al lenguaje que contiene su propio predicado de verdad, en Δ a A se le asigna su valor de verdad último. Esto asegura tener una definición de validez semántica para un lenguaje que contenga su propio predicado de verdad transparente:

  • ╞ A: una fórmula A es semánticamente válida si y sólo si A siempre adquiere valor 1 como valor último.

  • Γ╞A: un razonamiento Γ╞ A es semánticamente válido si y sólo si siempre se preserva el valor 1 como valor último desde Γ a A.

Otro aspecto relevante es que la teoría permite validar dentro de L+ toda instancia del esquema T utilizando el condicional especial. Claro que tal cosa puede hacerse debilitando las fórmulas y razonamientos válidos dentro de L+. Así, queda determinado un sentido interno de validez que permite explicar la interacción del predicado transparente de verdad junto con el comportamiento del condicional especial. Entonces, como hemos dicho, no resulta válido el principio de tercero excluido, falla el teorema de la deducción y otras leyes del condicional especial que evitan el surgimiento de paradojas. Todo este “costo” se paga logrando presuntamente inmunidad a las venganzas.

De acuerdo con Field, su enfoque permite describir la semántica de lenguajes como L+ dentro de L+, sin que las nociones introducidas a tales efectos generen nuevas inconsistencias. Mi punto es que tal cosa no es así con el concepto de validez semántica. Esto es, voy a mostrar que, si se extienden los recursos al adoptar lenguajes de orden superior con el propósito de capturar validez semántica dentro del lenguaje, la teoría resultante no estaría libre de revancha. O sea, una V-Curry surge inmediatamente dentro de la construcción, lo que significa que tal concepto no puede ser expresado.

La construcción conjuntista con la que Field elabora su teoría ofrece garantías de consistencia relativa. Es decir, si el concepto de validez semántica fuese inconsistente, tal inconsistencia debería “reflejarse externamente” dentro del lenguaje con recursos conjuntistas. Al igual que la construcción definida anteriormente, usando el modelo estándar de la aritmética N como modelo de base para L, Welch (2008) ha mostrado que la prueba de consistencia relativa para la construcción metateórica que permite capturar la extensión de las fórmulas y razonamientos válidos del lenguaje L+ (con verdad transparente y el condicional de Field) requiere gran complejidad aritmética: deberíamos expandir el lenguaje L+ en un lenguaje L++ con recursos de orden superior capaces de expresar fórmulas de complejidad / Δ41.13 Por supuesto, una consecuencia inmediata de este resultado a partir del teorema de Tarski es que validez semántica no es un concepto capturable dentro de PA: no puede haber un predicado V al S (<…>) que exprese todas las fórmulas y razonamientos válidos de acuerdo con la construcción modelo-teórica de Field dentro de PA. Otra consecuencia es que la complejidad expresiva del concepto de validez semántica impide la utilización de sistemas completos. En esta dirección, no resulta sorprendente que Welch (2008) haya mostrado que el sistema de Field no es axiomatizable (corolario 2 en Welch 2008). Este resultado se obtiene mostrando que el conjunto de verdades últimas es recursivamente isomórfico al conjunto de verdades estables en la teoría de la revisión (usando secuencias de revisión que comiencen con una hipótesis nula como extensión para la verdad estable).14 Es bien conocido que este último conjunto no es axiomatizable.

Ahora bien, como hemos visto, Field sostiene que su enfoque es inmune a revanchas. Y, usando lenguajes de orden superior, Rayo y Welch (2007) han argüido que la noción de tener valor último 1 en el mundo real no puede ser capturada dentro de la construcción. La utilización de lenguajes de orden superior parece estar bien motivada. A fin de cuentas, la construcción usada para definir la noción de validez tiene un dominio de “tamaño” conjuntista, y es bien sabido que, cuando se trabaja de esta manera, se necesitan garantías acerca de que estas construcciones son capaces de capturar todas las interpretaciones intuitivas del vocabulario no lógico. ¿Por qué deberíamos aceptar que, si una fórmula obtiene siempre verdad como valor último en estas estructuras, resulta entonces genuinamente válida? Recordemos que el modo usual de garantizar un “puente” entre ambas nociones es el recurso a la Kreisel. Sin embargo, esta estrategia requiere completitud. Y, como hemos visto, esto no es el caso. Por eso, la idea de Rayo y Welch es que se puede usar un fragmento de la teoría de segundo orden ZF 2 para caracterizar el universo real V de “todos los conjuntos” usando cuantificación plural. Entonces, ellos muestran que la caracterización de la mencionada noción semántica conduciría a una inconsistencia, si el lenguaje en cuestión tuviera suficientes recursos expresivos como para capturarla. Mi punto está directamente vinculado a este resultado: si utilizamos un lenguaje L++ con recursos de orden superior capaces de capturar dentro del lenguaje el concepto de validez semántica, la suposición de que ese concepto es parte de una teoría de orden superior H junto con la adopción de las reglas de inferencia V S 1 y V S 2 conduce a una V-Curry. Esto es, al igual que lo que sucede con las teorías de orden superior, la única opción de evitar la trivialización es abandonar la pretensión de expresar validez dentro del lenguaje.

TEOREMA 6: una teoría de orden superior H' con recursos suficientes como para capturar el concepto de validez de la construcción de Field a través de las correspondientes reglas de la validez es inconsistente.

Estrategia de la prueba: como hemos observado, en la estructura se define validez como tener siempre valor 1 como valor último. Sea V al S (<...>) un predicado que intenta capturar esa noción. Intuitivamente, si el lenguaje fuera capaz de expresar esta noción, aplicando diagonalización seríamos capaces de generar una oración V-Curry que afirme de sí misma:

Yo no tengo siempre el valor designado como valor último.

Es decir, una suerte de “revancha” por medio de una oración que afirma su propia invalidez. Formalmente, sea K una oración tal que

K¬Val(<K>)

Sea H' una teoría de la validez que tiene recursos suficientes como para capturar la noción de tener siempre el valor designado por medio de las siguientes reglas:

  • i) V S1:   Si H'Φ, entonces H' ValS(<Φ>)

y

  • ii) V S2:   H' ValS(<Φ>) Φ

El siguiente razonamiento se realiza dentro de H'. Se asume V al S (<K>) y se obtiene por diagonalización, aplicación de V S 2 y MP que ¬V al S (<K>), esto es, que K no obtiene siempre el valor designado como valor último. De lo que se sigue ¬V al S (<K>) por la regla de introducción de la negación. Pero, entonces, K se sigue sin supuestos y debe, por lo tanto, ser semánticamente válida. De eso, por aplicación de V S 1 ╞ tenemos que prueba V al S <K>), es decir, que K obtiene siempre el valor designado como valor último. Pero, entonces, se sigue que H' declara válida una oración justo en el caso de que esa oración no sea válida. Es decir, hay una oración K que obtiene siempre el valor designado como valor último justo en el caso en el cual no obtiene siempre ese valor.15

No estoy argumentando que la teoría de Field sea inconsistente, sino simplemente que no es capaz de expresar internamente su propio concepto de validez bajo la suposición de que este concepto se represente con las reglas V S 1 ╞ y V S 2╞. Una manera alternativa de señalar el mismo punto es la siguiente: sea ╞ FT la noción de validez de la lógica de Field. Entonces, si bien:

H' ΦFTValS(<Φ>)

no tenemos (por casos como K):

H' ΦFT¬ValS(<Φ>)

Por eso, la oración que afirma su propia invalidez genera una revancha. Es claro, empero, que hay diversas opciones para evitar la dificultad.

En primer lugar, podría objetarse que la anterior derivación no es aceptable en la lógica revisionista de Field. En particular, la inferencia que va desde V al S (<K>) hasta ¬V alS(<K>) podría resultar inaceptable. Al mismo tiempo, el argumento asume que las fórmulas o son válidas o no lo son. Nótese, sin embargo, que Field mismo considera que la noción de validez debería tener un comportamiento clásico en este sentido (Field 2008, p. 307). La idea es que las leyes de la lógica clásica pueden continuar valiendo en contextos restringidos, y, de acuerdo con Field, nuestras reflexiones acerca de la validez lógica deberían formar parte de estos contextos. A fin de cuentas, qué querría decir que hay contextos para completos vinculados con la validez, esto es, contextos en donde una fórmula no es válida ni inválida. Por eso, parece adecuado usar recursos clásicos de orden superior para capturar validez semántica de una lógica revisionista. Por supuesto, mi argumento podría ser una razón para considerar la posibilidad de desarrollar un concepto de validez revisionista no clásico. Al fin y al cabo, el concepto de validez semántica de una lógica no clásica de la verdad podría también ser no clásico. Claro, el paso no es tan sencillo, ya que estamos usando recursos de la teoría de conjuntos de orden superior para caracterizar la mencionada noción. Por tanto, adoptar un concepto no clásico de validez requeriría un cambio en el modo de actuar al construir las secuencias de revisión y los puntos fijos (estructuras que utilizan matemática clásica).16

En segundo lugar, podría dudarse de la estrategia de incluir re-cursos de orden superior para expresar validez real. Ésta ha sido la reacción de Field a la objeción de Rayo y Welch y podría ser una alternativa de bloqueo a esta V-Curry. Así, las definiciones:

  • ╞ A: una fórmula A es semánticamente válida si y sólo si A siempre adquiere valor 1 como valor último.

  • Γ╞ A: un razonamiento Γ╞ A es semánticamente válido si y sólo si siempre se preserva el valor 1 como valor último desde Γ a A.

estarían dadas desde el metalenguaje sin que ellas sean reflejadas dentro del lenguaje. Sin embargo, no resulta claro por qué sería plausible tal asimetría entre la verdad transparente y la validez semántica, ni tampoco en qué sentido el lenguaje en el que se expresa la construcción resulta semánticamente autosuficiente. Otra opción podría ser no aceptar alguno de los pasos de la anterior prueba informal.

Una opción más podría ser considerar que validez no es “realmente” preservación de valor designado como valor último. De hecho, Field parece favorecer esta opción por otras razones, considerando validez intuitiva como un concepto vinculado a la racionalidad de los agentes epidémicos y no a la idea de transmisión de verdad. Empero, resulta extraño que finalmente la noción de verdad transparente no desempeñe papel alguno en la validez de los argumentos.

Por último, otra opción podría ser “recortar” el conjunto de las fórmulas válidas restaurando la completitud. Por ejemplo, Field (2008) replica:

Podría ser mejor adoptar un enfoque según el cual, dada una semántica formal, lo que se valida excede a la noción de “validez real”: que las genuinas fórmulas lógicamente válidas son algún subconjunto efectiva-mente generable de estas inferencias que preservan 1 en la semántica formal dada. Si se adopta este punto de vista, entonces habría sin duda alguna arbitrariedad en la elección acerca de cuál subconjunto efectivamente generable se eligiría, pero esto parece perfectamente aceptable a menos que se quiera poner grandes exigencias (y pienso que esta opción no es razonable) sobre la significación de la distinción entre aquellas inferencias que son lógicamente válidas y aquellas que no lo son. (p. 277; la traducción es mía.)

Sin embargo, de hecho su teoría define un concepto de validez que no es axiomatizable y el intento de capturarlo genera una inconsistencia. Podemos limitar las capacidades expresivas para restaurar la consistencia, pero el movimiento no debería pasar desapercibido.

5. Las paradojas de la validez

En este trabajo he intentado mostrar que hay legítimas paradojas de la validez. El punto clave ha sido prestar atención a los recursos lógicos disponibles en la derivación de trivialidad. Tanto las lógicas de orden superior como las de la verdad nos ofrecen recursos para considerar a las reglas de introducción y eliminación de la validez como parte de los recursos lógicos. En todos estos casos, la noción de validez no puede ser capturada en la aritmética. Ésta es una diferencia esencial con el caso señalado por Ketland y Cook. Por eso, contrapuesto al caso de primer orden, en la lógica de orden superior puede formularse una V-Curry que usando recursos lógicos produce trivialidad. En términos de recursos expresivos esto significa que validez no puede ser expresada en cada una de esas teorías. De manera análoga, si extendiéramos los recursos expresivos de las denominadas lógicas de la verdad transparente con medios suficientes como para expresar validez, el resultado sería que si tal captura se hiciera por medio de las mencionadas reglas de la validez, también surgiría una V-Curry. Es decir, validez tampoco puede ser expresada consistentemente dentro de la teoría.17

BIBLIOGRAFÍA

Barwise, J. y S. Feferman (comps.), 1985, Model-Theoretic Logics, Springer-Verlag, Nueva York. [ Links ]

Beall, J.C., 2009, Spandrels of Truth, Oxford University Press, Oxford. [ Links ]

______(ed.), 2007, Revenge of the Liar: New Essays on the Paradox, Oxford University Press, Oxford. [ Links ]

Beall, J.C. y J. Murzi, 2013, “Two Flavors of Curry’s Paradox”, Journal of Philosophy, vol. 110, no. 3, pp. 143-165. [ Links ]

Cook, R., 2014, “There Is No Paradox of Logical Validity”, Logica Universalis <doi: 10.1007/s11787-014-0094-4>. [ Links ]

______, 2012, “The T-Schema Is Not a Logical Truth”, Analysis, vol. 72, no. 2, pp. 231-239. [ Links ]

Etchemendy, J., 1990, The Concept of Logical Consequence, Harvard University Press, Cambridge. [ Links ]

Field, H., 2008, Saving Truth from Paradox, Oxford University Press, Oxford . [ Links ]

Gómez Torrente, M., 2002, “The Problem of Logical Constants”, The Bulletin of Symbolic Logic, vol. 8, no. 1, pp. 1-37. [ Links ]

Gupta, A. y N. Belnap, 1993, The Revision Theory of Truth, The MIT Press, Cambridge. [ Links ]

Ketland, J., 2012, “Validity as a Primitive”, Analysis, vol. 72, no. 3, pp. 421-430. [ Links ]

Kreisel, G., 1967, “Informal Rigour and Completeness Proofs”, en I. Lakatos (ed.), Problems in the Philosophy of Mathematics, North-Holland, Amsterdam, pp. 138-171. [ Links ]

Kremer, M., 1988, “Kripke and the Logic of Truth”, Journal of Philosophical Logic, vol. 17, no. 3, pp. 225-278. [ Links ]

Kripke, S., 1975, “Outline of a Theory of Truth”, Journal of Philosophy , vol. 72, no. 19, pp. 690-716. [ Links ]

Murzi, J., 2014, “The Inexpressibility of Validity”, Analysis , vol. 74, no. 1, pp. 65-81. [ Links ]

Murzi, J. y L. Shapiro, en prensa, “Validity and truth-preservation”, en H. Achourioti, F. Fujimoto y J. Martinez-Fernandez (eds.), Unifying the Philosophy of Truth, Springer. [ Links ]

Picollo, L., s.f., “The Validity Paradox Rides Again?” (manuscrito). [ Links ]

Priest, G., 2006, Doubt Truth to be a Liar, Oxford University Press, Oxford . [ Links ]

Rayo, A. y Ph. Welch, 2007, “Field on Revenge”, en Beall 2007, pp. 234-249. [ Links ]

Read, S., 1994, “Formal and Material Consequence”, Journal of Philosophical Logic, vol. 23, no. 3, pp. 247-265. [ Links ]

Restall, G., 2007, “Curry’s Revenge: the Costs of Non-Classical Solutions to the Paradoxes of Self-Reference”, en Beall 2007, pp. 262-271. [ Links ]

Ripley, D., 2012, “Conservatively Extending Classical Logic with Transparent Truth”, The Review of Symbolic Logic, vol. 5, no. 2, pp. 354-378. [ Links ]

Shapiro, L., 2011, “Deflating Logical Consequence”, The Philosophical Quarterly, vol. 61, no. 243, pp. 320-342. [ Links ]

Sher, G., 1991, The Bounds of Logic, The MIT Press, Cambridge . [ Links ]

Tarski, A., 1986, “What are Logical Notions”, History and Philosophy of Logic, vol. 7, pp. 143-154. [ Links ]

______, 1956, Logic, Semantics, Metamathematics, Oxford University Press, Oxford. [ Links ]

______, 1936, “On the Concept of Logical Consequence”, en Tarski 1956, pp. 409-420. [ Links ]

______, 1935, “The Concept of Truth in Formalized Languages”, en Tarski 1956, pp. 152-278. [ Links ]

Varzi, A., 2002, “On Logical Relativity”, Phil. Issues, vol. 12, pp. 197-219. [ Links ]

Welch, Ph., 2008, “Ultimate Truth vis-à-vis Stable Truth”, The Review of Symbolic Logic , vol. 1, no. 1, pp. 126-142. [ Links ]

Whittle, B., 2004, “Dialetheism, Logical Consequence and Hierarchy”, Analysis , vol. 64, no. 4, pp. 318-326. [ Links ]

1 Los dialetheias son oraciones que reciben un “cúmulo” de valores de verdad: son verdaderas y falsas.

2Sin embargo, no todos los que aceptan la existencia de V-Curry han sacado las mismas conclusiones a partir de la derivación de trivialidad. Whittle, por ejemplo, argumenta que la paradoja muestra que los dialetheistas necesitarán recurrir a una jerarquía de tipo tarskiana para expresar los predicados de validez lógica. Field, en cambio, usa la paradoja para afirmar que validez lógica no es preservación de verdad. Shapiro, Beall y Murzi sostienen que la paradoja nos conduce a abandonar la regla estructural de contracción.

3Al ser una extensión de L, L+ contiene un código <Φ> para cada fórmula Φ de L+. Lo usual es que se utilicen códigos de Gödel para generar tales nombres dentro de teorías que contienen PA.

4Por supuesto, no hay un paralelismo estricto entre esta oración que afirma de sí misma su propia invalidez y la oración de Curry. Inmediatamente se verá por qué es conveniente usar esta terminología viendo este caso (el de validez) como un caso límite de consecuencia (semántica) lógica.

5Al igual que en la segunda formulación del primer apartado de este artículo, Ketland considera un predicado monádico de validez Val(<…>) que se cumple de los códigos de las verdades lógicas. La regla de introducción de validez se denomina V-In y cumple un papel análogo al de V S1. Por supuesto, según lo que Ketland afirma, la formulación correcta de V-In debería incluir los recursos adicionales de una teoría no lógica H, tal que: Si ├ Φ, entonces H ├ Val(<Φ>).

6En las lógicas de orden superior con semántica estándar (full semantics), en cada modelo las variables de orden superior tienen un rango sobre el conjunto potencia del dominio de discurso. Esto permite ganar capacidad expresiva respecto de los sistemas de primer orden. Por supuesto, es conocido que hay modelos de estos lenguajes (comúnmente conocidos como modelos de Henkin) en donde se restringen esas asignaciones. Estas lógicas son equivalentes a las lógicas multivaluadas de primer orden (many-sorted first-order logic) y se puede demostrar la existencia de un sistema de prueba efectivo que capture el conjunto de las fórmulas válidas. Este resultado se logra a costa de perder poder expresivo.

7En Cook (2014) y Picollo (s.f.) hay estrategias de prueba similares para la aritmética de Robinson (también finitamente axiomatizable).

8Usando la terminología antes introducida tenemos que la LOS junto con V S 1 L+V y V S 2 produce una teoría inconsistente.

9Gómez Torrente, al discutir los diferentes criterios de demarcación entre lo lógico y lo no lógico, sostiene: “Me parece que una de las conclusiones filosóficas que ha recibido fuerte apoyo a partir de la discusión precedente es que la mayoría (y quizá todas) las concepciones filosóficamente sustantivas acerca del problema de las constantes lógicas pueden haber creado versiones insolubles del problema” (pp. 31- 32; la traducción es mía.)

10Por supuesto, siempre será posible adoptar una actitud conservadora y circunscribir lo lógico a los bordes de la lógica clásica de primer orden. No obstante, extensiones a esta teoría nos han permitido comprender mejor nuestro hablar acerca de la vaguedad, el tiempo, y otros fenómenos que están más allá de tales bordes. Entonces, trazar un límite alrededor de esa lógica quizá fuera una empresa ociosa. Adoptar una posición más liberal pareciera ajustarse mejor con lo que constituye la práctica de los lógicos, lo que parece permitir una mejor comprensión de la diversidad de las expresiones que pueden quedar con éxito bajo lo que es lógico.

11Por ejemplo, los conectivos veritativo-funcionales y los cuantificadores de primer orden pasan esta prueba. Los nombres propios en general y predicados como ser mortal y ser hombre son excluidos (lo cual parece intuitivamente apropiado).

12Por razones técnicas, en Field 2008 se exploran también modelos que asignan infinitos valores de verdad.

13Recuérdese que la complejidad aritmética se “mide” por medio de los patrones de cuantificaciones en sus formas prenexas. Así, una fórmula Σ1 1 es una fórmula en su forma prenexa con sólo cuantificadores existenciales de segundo orden y una fórmula Γ1 es una fórmula en su forma prenexa con sólo cuantificadores universales de segundo orden. Las Δ1 1 incluyen ambos tipos de fórmulas y el subíndice indica el orden máximo de los cuantificadores.

14Por lo general, esta “política” de asignación de extensiones en los ordinales límite de las secuencias se conoce como estrategia de Herzberger.

15Obsérvese el estricto paralelismo que hay entre esta venganza y la primera de las V-Curry desarrollada en el primer apartado.

16Nótese, no obstante, que los enfoques más conocidos que proponen cambiar la lógica para explicar el funcionamiento del predicado veritativo aceptan de manera irrestricta que dada una fórmula A, o bien A es válida o bien no lo es. Tanto K3, como LP, ST y otras lógicas, no contemplan la posibilidad de que una fórmula no sea válida ni inválida: esto es, si validez fuera un concepto expresable dentro del lenguaje, no sería una opción que las predicaciones de validez adquieran un valor de verdad intermedio.

17Diversas versiones de este trabajo han sido presentadas en el seminario WIP del grupo de lógica de Buenos Aires y en el XXII World Congress of Philosophy, realizado en Atenas, Grecia. Quiero agradecer a las audiencias de esos eventos, así como a Roy Cook, Ole Hjortand, Jeffrey Ketland, Julien Murzi, Agustín Rayo y Lavinia Picollo con quienes discutí las ideas que aquí se presentan. También quiero agradecer a los árbitros anónimos de la revista Crítica, quienes con sus comentarios me ayudaron a mejorar la versión preliminar de este artículo.

Recibido: 16 de Octubre de 2013; Revisado: 12 de Abril de 2014; Aprobado: 09 de Septiembre de 2014

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons