Introducción
En un artículo publicado en el volumen I de la American Journal of Psychology, en noviembre de 1887, Charles S. Peirce (1839-1914) se dedicó a describir y comentar las recientes “máquinas lógicas” desarrolladas poco antes por W. Stanley Jevons (1836-1882) en el Reino Unido y Allan Marquand (1853-1924) en Estados Unidos1. Peirce aprovechó la ocasión para introducir sus ideas acerca de la naturaleza de la deducción, basadas en su propia semiótica. Sus reflexiones constituyen un antecedente de discusiones posteriores en el seno de la inteligencia artificial (IA). En lo que sigue se analizan los argumentos de Peirce, quien sostuvo la imposibilidad de reducir el llamado razonamiento teoremático a factores mecánicos, y se explorará la idea de semiosis en Peirce, teniendo en cuenta su presunta extensión al ámbito orgánico e inorgánico, sin abarcar el mundo inorgánico artificial de las máquinas. Para finalizar, se extraerán algunas conclusiones sobre la relación entre razonamiento y computación.
Peirce comienza su artículo haciendo referencia a un proyecto desarrolla- do por un profesor de la ficticia “Academia de Lagado”, ubicada en la isla volante de Laputa, que Jonathan Swift describe en la tercera parte de Viajes de Gulliver, publicado en 17261. El proyecto consistía en una máquina capaz de producir nada menos que todo el conocimiento científico, en cualquiera de sus disciplinas. La idea es que “por medio de operaciones prácticas y mecánicas”, la persona “más ignorante” pueda producir conocimiento en cualquier disciplina “sin la menor ayuda del talento y el estudio”. En este pasaje, Swift esbozaba una descripción de semejante máquina, compuesta de dados de madera con letras pegadas ensambladas con alambres en un bastidor, al cual se le unen manijas o asas de metal que, al darse vuelta, cambian la configuración de los dados de madera (Swift, 2005: parte iii, cap. v). Como resultado de estas operaciones se obtenían enunciados formados por la secuencia de los dados mencionados.2
Según algunos comentadores, con esta Academia, Swift quería caricaturizar las novedades científicas producidas en el seno de la Royal Society a comienzos del siglo XVIII (véase Nicolson y Mohler, 1937). En el caso de esta máquina de inferencias. Seguramente, Swift hacía una sátira tanto de los proyectos de máquinas de razonamiento, como, de manera indirecta, a la idea de construir lenguajes científicos universales, algo común en el pensamiento del siglo XVII (en particular, el caso de John Wallis, pero también G. W. Leibniz, entre otros). Peirce ya había hecho la misma referencia al pasaje del libro de Swift casi dos décadas antes en un artículo para el Journal of Spe- culative Philosophy (la “cognition series”) al discutir el carácter mecanizable de los silogismos clásicos, de modo que no implicarían un auténtico pensamiento (thought), y al defender la indispensabilidad de una mente (mind) que lleve a cabo los genuinos procesos de inferencia (Peirce EP I: 62). Una mera máquina, incluso una muy sofisticada, no podría realizar inferencias en sentido estricto y pleno.
Las máquinas lógicas de Jevons y Marquand
La idea de máquina impregnó el pensamiento del siglo XIX. En la década de 1880 se diseñaron máquinas lógicas que no estaban tan alejadas de la descripción hecha por Swift3. La máquina concebida por Jevons era el llamado “piano lógico”, precedido por un primer intento, el ábaco lógico, pensado con fines pedagógicos (véase Buck y Hunka, 1999 y Maas, 2005: 124). La idea era aplicarlo en la enseñanza de los conceptos del álgebra de la lógica desarrollada años antes por George Boole (1815-1864). Para Jevons, la mejor forma de enseñar el álgebra de Boole era mostrar sus principios de forma concreta, para luego moverse hacia lo abstracto. Pero el ábaco lógico no especificaba un procedimiento totalmente mecánico, con lo cual él no estaba conforme y decidió desarrollar un artefacto más sofisticado.
El piano lógico estaba diseñado para reducir expresiones booleanas complejas, por esta razón las proposiciones se expresan como igualdades, al modo típico del álgebra. Utilizaba un alfabeto de cuatro términos. Del lado de donde se sentaría el profesor, estaban colocadas las 21 teclas que consistían en los cuatro términos A, B, C y D y sus negaciones a, b, c, d, es decir, con minúscula (siguiendo un uso debido a su profesor en Londres, Agustus De Morgan). Luego se tenía la operación OR, la igualdad, “full stop” para completar una proposición y “finis” para terminar de ingresar todas las proposiciones y procesar la respuesta. Esta respuesta aparecía a ambos lados del piano lógico, para que la viesen alumnos y profesor.
El artefacto presentaba algunos inconvenientes, superados por máquinas posteriores como la de Marquand. En particular, no incluía un procedimiento eficiente para ingresar fórmulas, solamente podrían emplearse hasta cuatro términos, y, lo más grave de todo, no desarrollaba el paso adicional de analizarlas para obtener la conclusión deseada, es decir, no llevaba a cabo el proceso de analizar las combinaciones para determinar qué términos son verdaderos y cuáles falsos o encontrar la conclusión de un silogismo.
Propio del espíritu de la época, sobre todo en Gran Bretaña, era la concepción del pensamiento y la mente como máquinas; esto es, sujeta a procesos de índole mecánica, tal como sucede en el mundo físico. Esta concepción aparece con claridad en el pensamiento de Charles Babbage (1791-1871), el creador de la analytical engine, considerada la primera computadora de la historia.
Marquand, ex-alumno de Peirce en la universidad Johns Hopkins, diseñó en 1881 una máquina lógica para mostrar la validez de silogismos clásicos que daba solución a los inconvenientes presentados por la de Jevons. Marquand construyó una máquina que podía procesar hasta diez términos, y luego otra más chica para procesar cuatro (véase Buck y Hunka, 1999). El núcleo de esta máquina lógica consta de 16 elementos electromagnéticos. La información es representada como estados de energía magnética en cada uno de los elementos. Aquí, el programador resetea la máquina e ingresa una proposición con las teclas programadoras. Luego, usando el conmutador de control y el conmutador de operación, la máquina recuerda los elementos previamente programados. A continuación, puede ingresarse otra proposición para guardarla, y así sucesivamente. Ésta es expandible a cualquier tamaño, es decir, a cualquier número de términos.
Peirce vinculaba la restricción de los términos con limitaciones intrínsecas a una máquina:
[...] la capacidad de una máquina tiene limitaciones absolutas; ha sido ideada para hacer determinada cosa y no puede hacer nada más. Por ejemplo, las máquinas lógicas que hasta ahora han sido ideadas pueden tratar con un número limitado de diferentes letras. (Peirce W 6: 70 s.)
Acerca de estas limitaciones, Peirce le escribió a Marquand, inmediatamente después de la publicación de su artículo, el 30 de diciembre de 1886, sugiriendo la utilización de energía eléctrica, con el fin de que la máquina pueda resolver problemas de mayor complejidad:
Creo que deberías retomar el problema, especialmente si de alguna manera queda una esperanza de hacer una máquina para problemas matemáticos realmente complicados. Pero tendrás que proceder paso a paso. Creo que la electricidad sería la mejor opción. (Peirce W 5: 421 s. Énfasis nuestro)
En esa misma carta, Peirce agrega ideas de cómo implementar la electricidad, construyendo circuitos y diagramando los casos correspondientes a adición y multiplicación en un sentido lógico (aplicable a conceptos o proposiciones). Claramente, se encuentra aquí in nuce el pasaje de la computación mecánica digital a la eléctrica digital mediante circuitos eléctricos, desarrollada en el siglo XX (gracias, en gran parte, a Claude Shannon).
De acuerdo con Peirce, las máquinas lógicas de Marquand, de todos modos, presentaban el mejor diseño. Los compiladores del volumen II de los Collected Papers sostuvieron que Peirce mismo también había considerado la construcción de una máquina lógica semejante, pero no hay evidencia de ello, o que haya hecho bocetos.4
Sin duda, los procedimientos de estas máquinas corresponden a lo que llamamos actualmente un algoritmo o un procedimiento computable, al modo de lo que puede efectuar una máquina de Turing. Peirce no tenía duda de las vinculaciones entre razonar y computar, aludiendo, en su Minute Logic de 1902, a la ya clásica e influyente idea de Thomas Hobbes (1588-1679):
Un célebre tratado [de Hobbes] se llama Logic, o Computation, y a pesar de que no todo razonamiento es computación, es verdad que la computación numérica es razonamiento. Sin embargo, las máquinas de cálculo son de uso cotidiano, y la máquina analítica de Babbage llevaría a cabo enormes hazañas en matemática. (Peirce CP 2.56)
Peirce no era ajeno al espíritu mecanicista de la época y se mostraba entusiasmado con estas máquinas, sin duda realizaban operaciones análogas al razonamiento:
El secreto de todas las máquinas de razonamiento es, después de todo, muy simple. Consiste en que cualquier relación entre los objetos acerca de los cuales se razona, destinada a ser el gozne del proceso de razonamiento, ella misma debe ser capaz de ser introducida entre ciertas partes de la máquina. (Peirce W 6: 69)
Dicho de otro modo, las relaciones indispensables para el razonamiento debían tener su correlato entre los elementos de la máquina.
Los silogismos clásicos, en tanto ejemplos típicos de razonamientos deductivos, resultaban buenos candidatos. De todos modos, la idea que Peirce tenía de la deducción en general iba más allá de la silogística clásica. En el mismo artículo, Peirce se refería a los procesos de razonamiento subyacentes a las demostraciones matemáticas, en tanto núcleo de su método, y en este punto subrayaba las limitaciones de los procedimientos mecánicos de deducción (véase Peirce W 6: 70). En primer lugar, las máquinas parecen carecer de originalidad e iniciativa. En segundo lugar, no se ve cómo puedan llevar a cabo la demostración de un teorema matemático importante, que represente un avance auténtico en el conocimiento. Como ejemplo, Peirce menciona la célebre demostración de von Staudt del teorema de Desargues (W 6: 70).
En un texto posterior, de 1894, encuentra el mismo problema en el caso de la lógica de relativos (interpretable como la lógica de predicados, incluyendo predicados poliádicos y, sobre todo, cuantificación múltiple).
Incluso el razonamiento silogístico en sus variedades más elevadas, tal como aparecen en la lógica de relativos, requieren el acto de una elección viva basada en el discernimiento, más allá de los poderes de cualquier máquina que se pueda concebir; y esto refuta suficientemente la idea de que el hombre es un mero mecanismo provisto de una conciencia inactiva. (Peirce, 1894: 344 s.)
Claramente, Peirce sostiene que el razonamiento deductivo va más allá de los procedimientos mecanizables o algorítmicos. Esta afirmación, hecha a fines del siglo XIX, era adelantada para su época y preanunciaba discusiones que comenzarían décadas más tarde en la filosofía y metodología de la matemática (por ejemplo, con el problema de decisión).
Los supuestos de Peirce acerca del conocimiento humano lo condujeron a estudiar con profundidad los conceptos de razonamiento y de inferencia en general durante toda su vida. Sobre la base de su teoría de los signos, Peirce introdujo su bien conocida distinción tripartita de los razonamientos en deductivos, inductivos y abductivos (o hipotéticos) que significó un punto de inflexión en la teoría del razonamiento (la cual clasificaba hasta ese punto los razonamientos en deductivos e inductivos). En su clásico artículo “Deduction, induction, and hypothesis”, publicado en 1878, en el volumen 13 de la revista Popular Science Monthly (reproducido en CP 2.619-644), aparecen los esquemas más simples de los tres tipos de razonamiento, formulados res- pecto del lenguaje ordinario y en función de su aplicación a la investigación científica en general. La novedad se encuentra, por supuesto, en la abducción (a la que en este trabajo denomina hipótesis):
Una hipótesis es donde encontramos una muy curiosa circunstancia que sería explicada suponiendo que ésta era el caso de una cierta regla general, y por lo tanto adoptamos este supuesto. (Peirce CP 2.624)
El hecho de generar un supuesto (supposition) a partir de una circunstancia muy curiosa refiere a un elemento creativo, a la ampliación del conocimiento e incluso a la generación de nuevos conceptos. Con esta presentación escueta, no exenta de oscuridades, Peirce abrió un enorme campo interdisciplinario de estudio, que él mismo se ocupó de extender y aplicar a diferentes casos y que en los últimos años ha tenido un importante desarrollo (basta con echar una mirada a Magnani, 2023).
El razonamiento teoremático
Preocupado por elucidar la naturaleza del conocimiento matemático, Peirce delimitó los procesos inferenciales que subyacen a las demostraciones matemáticas, distinguiendo dos formas de razonamiento: el corolarial y el teoremático. Peirce formuló esa distinción en el contexto de su concepción diagramática de la deducción, la cual era la inferencia necesaria que consistía en construir diagramas correspondientes a las premisas, entendidas como situaciones hipotéticas, para luego manipularlos, experimentando con ellos a fin de obtener la conclusión (esta concepción ya está presente en el célebre trabajo sobre el álgebra de la lógica de 1885, véase Peirce CP 3.363). Los conceptos de diagrama y de hipótesis son indispensables en la concepción de la deducción y también harán posible comprender, en general, la naturaleza deductiva de las demostraciones matemáticas (al respecto, véase Legris, 2012.)
Una demostración corolarial “representa las condiciones de la conclusión en un diagrama y a partir de la observación de este diagrama encuentra, así como está, la verdad de la conclusión” (Peirce CP 2.267). En cambio, una teoremática “recurre a procesos más complicados de pensamiento” (Peirce EP II, 442), que conducen a la introducción de información ausente en las premisas (pero consistente con éstas). A partir de representarse las condiciones de la conclusión en un diagrama, se “ejecuta un experimento ingenioso sobre el diagrama y, por la observación del diagrama, así modificado [se] establece la verdad de la conclusión” (Peirce CP 2.267). Ahora bien, este experimento ingenioso incluye la adopción de una idea externa (a foreign idea) a las premisas, que resulta decisiva para la obtención del teorema, si bien está ausente en la conclusión final. La foreign idea se usa para construir enunciados que, junto con las premisas, desencadenan de manera exitosa el proceso de demostración (véase, por ejemplo, Peirce NEM IV: 42). Desde el punto de vista de la metodología deductiva, esta foreign idea origina una hipótesis auxiliar, que es correctamente elegida para hacer posible la construcción de la demostración. Por medio del razonamiento teoremático, se consiguen demostrar los “más importantes” teoremas de la matemática (Peirce CP 7:.204) y se logra un avance real en este campo de conocimiento, a pesar del carácter deductivo de las demostraciones matemáticas (Peirce NEM IV: 49). Por ejemplo, las construcciones auxiliares incluidas en las demostraciones de muchos teoremas de la geometría euclídea son casos de estas hipótesis.
En general, Peirce entiende una hipótesis como “una proposición que es imaginada en sentido estricto como verdadera de un estado de cosas ideal” (CP 3.558). Hay casos de razonamientos deductivos donde la demostración de la conclusión a partir de las premisas exige la introducción de hipótesis como elementos auxiliares para obtener deductivamente la conclusión. La diferencia central con las premisas es que su contenido no aparece en la conclusión.5 No parece demasiado aventurado considerar el proceso de introducción de hipótesis auxiliares como una abducción. Esta sería una, forma entre varias que puede adoptar el razonamiento abductivo, en especial desde el punto de vista de la invención de hipótesis (acerca de la relación entre abducción y razonamiento teoremático, veáse Hoffmann, 2010; un panorama reciente sobre el uso de la abducción en matemática aparece en Dauben, Richmond y Schmidt, 2022 y en los artículos incluidos en la Parte V, Abduction in Mathematics, de Magnani, 2023).
Con la idea de razonamiento teoremático Peirce intenta explicar la generación de nuevo conocimiento, es decir, lo que usualmente se denomina “creatividad matemática”, algo muy lejos de ser sencillo. Una demostración teoremática incluye diferentes aspectos, éstas pueden reducirse básicamente a tres: (i) lógicos, (ii) metodológicos y (iii) cognitivos. Los primeros han sido señalados por Jaakko Hintikka (1980) en su influyente interpretación, que consiste en el agregado de cuantificadores ausentes en la premisa, los cuales reflejan la introducción de nuevos individuos en el dominio. Los aspectos metodológicos residen en la adopción de una hipótesis ajena por medio de una inferencia abductiva. Finalmente, los cognitivos consisten en un cambio de perspectiva o marco desde el cual se analiza el problema (una descripción más detallada de éstos puede encontrarse en Giovannini y Legris, 2023).6
Semiosis y el concepto de mente
Para Peirce, el razonamiento deductivo, en los casos más difíciles, incluye operaciones cognitivas más complejas que los procedimientos algorítmicos. En Minute Logic, luego de mencionar la célebre tesis de Hobbes acerca de la equivalencia entre razonar y computar, se refiere a la carencia de alma en las máquinas:
Todos esos instrumentos ejecutan inferencias y estas inferencias están sujetas a las reglas de la lógica. Si de premisas verdaderas siempre llegan a conclusiones verdaderas, ¿qué más puede pedirse? Sin embargo esas máquinas, que sepamos, no tienen almas. No parecen pensar, en ningún sentido psíquico; e incluso si descubrieramos que lo hacen, éste sería un hecho que no tendría relevancia para la corrección lógica de sus operaciones, de la cual tendríamos que asegurarnos del mismo modo que lo hacemos actualmente. (Peirce CP 2.56)
Un término más usual en la obra de Peirce para “alma” es “mente”, aunque éste término presenta una extensión mayor. En su aplicación, Peirce parte de la mente humana, hacia el mundo orgánico, e incluso el inorgánico natural. Cabe preguntarse en qué medida puede extenderse al mundo inorgánico artificial, es decir: las máquinas. Es importante advertir que, el sinequismo defendido por Peirce puede justificar la existencia de un continuum entre mente y materia.
Ahora bien, un aspecto central del pensamiento de Peirce era su concepto de mente, analizado en términos de su teoría de los signos (semiótica o “semeiótica”, como solía decir): la mente sería el locus de los procesos semióticos y esto daría sentido a extender lo mental más allá de los seres humanos (rechazando posturas psicologistas). En líneas generales, la semiosis es el proceso por el cual una entidad adquiere el carácter de signo. Así, siguiendo la célebre definición dada por Peirce, “un signo, o representamen, es el que está para alguien en lugar de algo en algún aspecto o capacidad” (CP 2.228). De este modo, el proceso de constitución de algo como signo incluye tres el mentos: la entidad que cumplirá la función de signo, el designado y el interpretante: Por ejemplo, el objeto puede ser una manzana, el signo la palabra “manzana” y el interpretante mental la idea de la misma(relación simbólica). O el objeto el fuego, el signo el humo y el interpretante mental la idea del fuego (relación indexical).
Un problema, que afecta a la idea de “máquinas que razonan”, es el del umbral semiótico, es decir, ¿qué entidades tienen la capacidad de interpretar? Según autores clásicos, como Umberto Eco (1975), el umbral se encuentra en la línea antropomórfica, siendo los humanos los únicos capaces. Luego están los zoosemióticos, que toman en cuenta las interpretaciones de los animales. Los biosemióticos también consideran las señales de los microorganismos, por ejemplo. En todo caso, Peirce deja de lado las máquinas deterministas, pues no tienen semiosis completa, solo un “quasi-signo” (“como-si”). Esta falta de atribución semiótica se debe a la falta de espontaneidad percibida en ellas.
A lo largo de su trabajo, Peirce enfatizó que la semiosis no es reducible a factores causales mecánicos, identificando dos niveles en el razonamiento deductivo: el estrictamente determinista, y el nivel llama de un “proceso viviente” (mencionado en una carta del 29 de marzo de 1887, véase Ketner, 1988: 45). Los matemáticos se mueven entre estos niveles cuando hacen sus demostraciones. Identificar solo el método matemático con el desarrollo y uso de algoritmos deterministas es ver sólo una porción del procedimiento, mientras se ignora la parte más importante: el ya mencionado razonamiento teoremático. Una máquina claramente carecería de la capacidad de llevar a cabo razonamiento teoremático, siendo capaz tan sólo de llevar a cabo procesos deterministas.
Cuando Peirce habla del razonamiento teoremático, se refiere al diagrama que corresponde a las premisas, donde hay que agregar algo más, es decir, las hipótesis auxiliares, para deducir la conclusión. En el razonamiento teoremático, la cuestión de qué se debe agregar al diagrama se relacionacon la ejecución de un acto de elección, una hipótesis: un paso no determinístico que usualmente también involucra creatividad, entrenamiento, etcétera. Siempre que se deben poner a prueba por ejemplo dos hipótesis y elegir entre ellas, o experimentar con una nueva, entra en juego la elección (véase Ketner, 1988: 49). Podemos imaginar, entonces, además de las máquinas deterministas, otro tipo de máquinas lógicas: las teoremáticas. (que, siguiendo a Ketner (1988), podríamos llamar “máquinas de Peirce”).7
La naturaleza de las máquinas deterministas se extrae del siguiente pasaje:
[…] si el termostato está dinámicamente conectado a un aparato de frío y calor, para corroborar ambos efectos, nosotros en el lenguaje ordinario no hablamos de que hay semiosis, o acción de un signo, sino que por el contrario, hay una “regulación automática”, una idea opuesta, en nuestras mentes, a la idea de semiosis. (CP 5.473)
En este caso de la regulación automática de un termostato, no hay semiosis, ni una relación triádica de ningún tipo. A lo sumo aceptará la idea de un “quasi-signo” (CP 5.473) que dará lugar a una quasi-semiosis (véase Nöth, 2002: 81), pero al fin y al cabo se trata de una reducción del proceso triádico de signo a uno meramente diádico entre un signo y su objeto.
La máquina determinista tiene dos limitaciones. En primer lugar, no tiene originalidad ni iniciativa: no puede encontrar sus propios problemas. El control viene desde afuera, por ejemplo, del ingeniero que la diseña o del usuario que la manipula. No es un agente autónomo. Además, de acuerdo con Peirce, está pensada para hacer una determinada cosa, y no puede hacer nada más (véase Ketner, 1988).
Como se ha mencionado antes, existen diferentes posiciones sobre lo que debe tomarse como umbral semiótico en la realidad. Una perspectiva clásica lo establece en la línea que divide la cultura de la naturaleza (pace el sinequismo de Peirce); Eco lo establece en el nivel antropomórfico, la intencionalidad humana y el “dar sentido a los actos” son criterios de uso de signos (Nöth, 2001: 14).
No obstante, en el campo de la biosemiótica, la investigación ha ido bajando paulatinamente el umbral, desde la semiosis humana, hasta procesos cuyos agentes son animales y microorganismos. Más aún, hay quienes, como John Deely (2001), investigan el campo de la físicosemiosis: sistemas autocatalíticos, estructuras disipativas y otros procesos físicos dinámicos muestran un orden espontáneo en la naturaleza, un transitar “del caos al orden”. El descenso del umbral semiótico en las últimas décadas fue paralelo al redescubrimiento del concepto amplio de semiosis que algunos pasajes de la obra de Peirce parecen sugerir.
La cuestión acerca de si Peirce era pansemiótico es discutible. El hecho de extender la “mentalidad” a distintos organismos, lo lleva a semiosis en el nivel biológico. Peirce no equipara la mente sólo al pensamiento humano, sino que tiene un concepto mucho más amplio: microorganismos (CP 1.269), el crecimiento de los cristales (CP 4.551), y entidades primitivas de protoplasma (CP 6.283, 7.364) parecen exhibir mentalidad. Delimitar un umbral semiótico, en el desarrollo de las computadoras y la Inteligencia Artificial constituye un nuevo desafío, como veremos a continuación.
La inteligencia artificial y el razonamiento teoremático
Estas máquinas lógicas, como la de Jevons o Marquand, pese a establecer razonamientos válidos, no son capaces de funcionar como un interpretante y operan por lo tanto como un quasi-signo (véase Peirce CP 5.473). Éste es en algunos aspectos como un signo, pero no cumple con todos los criterios de la semiosis; es una simulación de una semiosis. De aquí se puede decir que las máquinas tienen una quasi-semiosis. En el ejemplo del termostato (ya mencionado), la quasi-semiosis es la reducción (degeneración) del proceso triádico de signo (véase Peirce CP 5.473).
Cuando la máquina reacciona causalmente a la temperatura del termostato, no lo interpreta. No hay una semiosis genuina, la causa y el efecto constituyen una relación diádica. Sólo cuando aparece en escena el interpretante se puede hablar de semiosis. Los signos con los cuales opera la computadora son quasi-signos. El rótulo de quasi apunta a que las máquinas lógicas, en realidad, simulan un pensamiento (con semiosis plena), en el sentido amplio del término.
A pesar de esto, posiciones más propensas al sinequismo de Peirce ven un continuo de mente entre distintos organismos, desde los más rudimentarios, hasta los más sofisticados, incluyendo a los inorgánicos artificiales como las máquinas. Dondequiera que haya tendencia al aprendizaje, crecimiento o evolución hay mente, no importa cuán rudimentaria sea, es decir, hay semiosis.
Décadas atrás, James H. Fetzer enfatizó las diferencias entre la semiosis y la quasi-semiosis, en el caso de la IA (véase Fetzer, 1990, 2001). Mientras que a los seres humanos y los animales se los puede considerar sistemas semióticos, las máquinas digitales son sistemas de signos que parecen no cumplir con esta distinción.8 Fetzer define las mentes como sistemas semióticos, pues utilizan y crean signos. De acuerdo con esto, los sistemas computacionales, tales como un programa de IA, solo simulan, y no replican, procesos semióticos. Fetzer usa el análisis peirceano de los signos para marcar la diferencia entre la mente humana, la cual de acuerdo con él es un sistema semiótico, y las máquinas digitales, que no lo son.
De acuerdo con la concepción de los sistemas físicos de símbolos (physical symbol system) presentada por Newell y Simon (1976), que influyó en aquellos momentos iniciales de la Inteligencia Artificial (IA), éstos son máquinas -tal vez humanas- que procesan estructuras de símbolos a través del tiempo. Ellos propusieron la célebre “hipótesis del sistema físico de símbolos”, esto es, la conjetura de que satisfacían las condiciones necesarias y suficientes para la acción inteligente. Frente a esto, Fetzer dice que el razonamiento por analogía de la similitud entre el humano y la computadora es una falacia. Ellos hacen una inferencia de las propiedades de las máquinas a las de los seres humanos.
Para Fetzer, la capacidad de cometer un error caracteriza a un sistema semiótico, y esto es debido a que para hacerlo, algo debe tomar algo más como representando otra cosa en vez de lo que en realidad representa. Según Fetzer, si el sistema se equivoca implica que lo falso ha sido tomado por verdadero, o algo ha sido mal clasificado (lo cual suele ocurrir en la inferencia inductiva).
Sin embargo, este criterio para distinguir un sistema semiótico podría ser revisado, pues actualmente las redes neuronales artificiales (RNA) en general pueden clasificar mal los datos, como el caso de las fotografías. De modo que: o no es necesario que un sistema sea semiótico para generar un error, o las redes neuronales también podrían considerarse sistemas semióticos. Más aún, Fetzer señala:
Incluso si los sistemas de símbolos son incapaces de mentalidad, la evolución y el desarrollo de nuevos sistemas con capacidades inductivas y perceptuales promete ser fuente de dispositivos con la capacidad de cometer errores. Por medio de este criterio, después de todo, los sistemas que tienen la capacidad de cometer errores califican como sistemas semióticos, incluso cuando no replican los procesos de los seres humanos. (Fetzer, 1990: 57. Énfasis nuestro)
Esta visión no está exenta de críticas, William J. Rappaport (2012) presenta una dura crítica desde la posición del computacionalismo fuerte. Para él, Peirce tiene la visión de que las computadoras tienen mente (Rapaport, 2012: 20).
No obstante, Peirce deja de lado las máquinas deterministas con respecto a la semiosis. Si volvemos a su trabajo sobre las máquinas lógicas, queda claro que carecen de semiosis completa, son sólo un “quasi-signo” (“como-si”) (recordemos el ejemplo del termostato). Le imputaremos esta falta de atribución semiótica a la falta de espontaneidad percibida en ellas (véase Peirce, W 6:70).
De todas maneras, Fetzer sí tiene otro argumento, no mencionado hasta ahora, que tiene un punto flaco, subrayado por Rappaport, y es el siguiente: “La mayoría de los procesos de pensamiento humano, incluidos los sueños, los devaneos y el pensamiento ordinario, no son procedimientos para llegar a soluciones de problemas en un número finito de pasos” (2012: 26). De acuerdo con Rappaport, por más que, por ejemplo, los sueños no sean algorítmicos, pueden estar producidos por ellos. Hay que considerar la diferencia entre el algoritmo en sí, y su output (que podría ser el sueño).
¿Sistemas de IA semióticos? ¿creatividad a través de la IA?
¿De verdad estamos construyendo por primera vez sistemas que podemos calificar de semióticos? Y, si esto fuera así, ¿se podría dar el salto del proceso algorítmico al auténtico razonamiento teoremático por medio del aprendizaje? En otras palabras, ¿se logrará la creatividad a través de las redes neuronales artificiales? Frente a esto podemos recurrir a la célebre objeción Lovelace, planteada por Augusta Ada Lovelace (1815-1852), la primera programadora, quién, refiriéndose a la Máquina Analítica desarrollada por Charles Babbage expresó: “La Máquina Analítica no tiene pretensiones de originar nada. Puede hacer solo lo que sepamos ordenarle cómo ejecutar” (Lovelace 1842:722). Según esta afirmación, la máquina no puede tener inventiva de ningún tipo.
Alan Turing (1950) respondió a la objeción de Lovelace afirmando que si bien en su época quizá no haya tenido motivos para pensar que las máquinas no eran capaces de generar algo original, eso no era necesariamente cierto para las máquinas que aprendían, y en 1950 comenzó un proyecto para avanzar en el campo de la IA basándose en el aprendizaje. Ese proyecto se continúa actualmente en lo que se conoce como redes neuronales artificiales. Hoy en día tenemos sistemas muy avanzados como el OpenAI, el chatGPT para el lenguaje y en el caso de la creatividad, nos ofrece DALL-e, que a partir de una frase ingresada la RNA genera una imagen original, sin copiar un estilo existente.
Margaret Boden (1990) formula algunas preguntas derivadas de lo enunciado por Lady Lovelace, y trabaja con ellas. Algunas son:
¿Pueden las computadoras ayudarnos a entender la creatividad humana? Boden responde afirmativamente.
¿Pueden las computadoras ser realmente creativas? La respuesta no es sencilla.
Si es difícil establecer qué es creativo en los seres humanos, también lo será para las máquinas.
En la creatividad hay en juego dos triángulos semióticos: el del artista que produce la obra (si es un ser humano), con su interpretante, y la del crítico que la recibe (tomamos como un solo triángulo semiótico a posibles múltiples receptores para simplificar el análisis). Si las máquinas no pueden ser creativas, tal vez no puedan ser genuinamente inteligentes, porque nunca tendrán mentes propias (o razonamiento teoremático). Siempre serán esclavas de lo que les digamos, como una nuestra extensión. El interpretante del triángulo semiótico siempre seremos nosotros. Según Peter Skagestad (1993: 193), la evolución humana procede exosomáticamente, a través de la evolución de artefactos externos. La computadora digital puede ser un medio para aumentar la inteligencia humana por medio de automatizar y acelerar la producción y manipulación de símbolos, más que una fuente independiente de comportamiento inteligente. Podemos añadir que puede ser una ayuda para los creativos a la hora de realizar sus diseños, ya sean gráficos, sonido, drogas, armas, etcétera.
¿Pero hay dos triángulos semióticos en el caso de la creatividad digital? Existe el triángulo semiótico del receptor que admira la obra, pero “el artista” no tiene triángulo semiótico, ni expresa emociones a través de su arte. Porque el arte está no solo para ser admirado, sino para que quién lo produce se exprese, exprese lo que hay en su conciencia.
Es interesante tratar de producir creatividad con la IA, donde al menos parezca creativa (Boden, 2010: 29). Veamos el caso de las RNA que utiliza DALL-e: las GAN (Redes Neuronales Generativas Antagonistas). Boden afirma: “La creatividad es la habilidad de crear ideas o artefactos que sean nuevos, sorprendentes y valiosos” (2010: 29). De acuerdo con ella, hay un tipo de creatividad capaz de transformar espacios conceptuales: Esta supuesta idea imposible puede surgir sólo si el creador cambia el estilo preexistente de algún modo. Debe ser modificada, o radicalmente transformada para que sea ahora posible lo que antes era literalmente inconcebible.
Recordemos el sistema de DALL-e brevemente:
Para entrenar una GAN, hay que entrenar dos redes simultáneamente para maximizar la performance de ambas:
Entrenar el generador, infiltrado por un ruido aleatorio, para generar datos que engañen al discriminador.
Entrenar al discriminador para que distinga entre lo real y los datos generados.
Se genera un proceso iterativo donde el discriminador distingue entre imágenes supuestamente reales o no.
Se produce algo que no se podría haber pensado antes a través del ruido y del generador. Esta supuesta idea puede surgir sólo si el creador cambia el estilo preexistente de algún modo (en este caso, haciendo que el generador engañe al discriminador). A fin de cuentas, las imágenes reales son modificadas y radicalmente transformadas para hacer posible lo que antes parecía inconcebible. De este modo, al parecer la IA DALL-e tiene creatividad del tipo de transformar espacios conceptuales con un solo triángulo semiótico en juego (el del receptor).
Respecto a la creatividad, la teoría de la incubación sugiere que ésta se produce después de un periodo de descanso y relajación. Sostiene que cuando se enfrenta a un problema, es útil tomar un descanso y alejarse de él por un tiempo. Durante este lapso, el cerebro sigue procesando información inconscientemente, esto puede llevar a la generación de soluciones creativas y nuevas ideas. Se ha propuesto que la creatividad está influenciada por factores como la motivación, la experiencia previa, la personalidad y el ambiente. El factor humano de la creatividad, como la motivación y la incubación, no está replicado en la IA, ya que tiene relación con el razonamiento teoremático. De modo que los sistemas creativos de IA tienen una creatividad a medias u otro tipo de creatividad artificial.
Conclusiones
En este artículo analizamos los comentarios que Peirce hizo acerca de las máquinas lógicas concebidas en su época y los relacionamos con problemas actuales, resultantes de la evolución de la Inteligencia Artificial. Como hemos visto, en estos comentarios Peirce recurría a sus ideas sobre el razonamiento deductivo y a su teoría de los signos. Sobre esta base, concluimos, en primer lugar, que el genuino avance de conocimiento en matemática se obtiene mediante los procesos incluidos en lo que Peirce denominó razonamiento teoremático (sin desmedro del carácter deductivo de las demostraciones matemáticas). En segundo lugar, máquinas deterministas tales como las computadoras no tienen capacidad de razonamiento teoremático.
Siguiendo a Peirce se requieren de dos condiciones para que una entidad cumpla con la característica de poseer semiosis en su estado más puro o total:
La primera tiene que ver con la evolución: Los procesos semióticos evolucionan de un estado de mayor desorden a uno de mayor orden, se van organizando. Aquí entran en juego fenómenos como el aprendizaje. Se cumple en el mundo natural en diversos fenómenos y actualmente es cumplida por la IA moderna, con características como redes neuronales que aprenden continuamente a través de grandes cantidades de datos, de manera supervisada o no supervisada, reforzada, etcétera. Un ejemplo es DALL-e con su creatividad.
La segunda es autoorganización o espontaneidad: cumplida incluso por todo el mundo biológico, según Pierce. La autoorganización de las máquinas lógicas no está dada por ellas mismas, su telos. La IA no cumple esta segunda condición.
En suma, las máquinas lógicas del siglo XIX no cumplen ninguna de las dos condiciones para la semiosis, mientras que la IA moderna cumple la primera de ellas, el aprendizaje, la evolución, pero no la segunda, la de la espontaneidad. En cambio, el fenómeno de lo biológico cumple ambas condiciones.










nueva página del texto (beta)




