SciELO - Scientific Electronic Library Online

 
vol.8 número15Conocimientos, caos y orden en el contexto de las TIC dentro de la sociedad de la información y del conocimientoGeopolítica y recursos naturales espaciales índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


PAAKAT: revista de tecnología y sociedad

versión On-line ISSN 2007-3607

PAAKAT: rev. tecnol. soc. vol.8 no.15 Guadalajara sep. 2018  Epub 01-Sep-2018

https://doi.org/10.32870/pk.a8n15.338 

MULKINAH

Inteligências artificiais e os limites da computação

Artificial intelligences and the limits of computing

Alexandre Quaresma Quaresma1  *

1Pontifícia Universidade Católica de São Paulo, Brasil


Resumo:

Muito se tem ouvido falar na atualidade de inteligências artificiais (IA) e máquinas inteligentes, mas muito pouco sobre os limites da computação que fazem ou não possíveis essas mesmas simulações de inteligências em sistemas artificiais. Se por um lado avançaram muito os suportes técnicos computacionais, o que vale dizer, os hardwares -que de fato ficaram mais rápidos, menores e mais potentes-, por outro, pouco ou nada avançaram as técnicas de engenharia dos programas que fazem funcionar estes mesmos suportes técnicos computacionais, ou seja, os softwares, bem como as teorias conceituais que subjazem a eles, estruturando-os, que têm sua origem e gênese. O objetivo desse artigo é tentar aclarar os possíveis equívocos propalados pelas mídias de massa, e, em última instância, pelos próprios cientistas e entusiastas das IA, a saber: o fato de anunciar-se ‘aos quatro ventos’ a eminência do surgimento de sistemas cibernético-informacionais realmente inteligentes, pretensamente vivos, conscientes de si mesmos e também do mundo que os cerca, algo que, definitivamente, não encontra eco na realidade factual, nem muito menos ainda nos limites atuais da computação.

Palavras-chave: Inteligências artificiais (IA); limites da computação; crítica da tecnologia

Abstract:

Much has been heard in the present of artificial intelligences (IA) and intelligent machines, but very little about the limits of computing that make or not possible these same simulations of intelligences in artificial systems. If on the one hand advanced computational technical support, which is to say, the hardware-that actually got faster, smaller and more potent-, on the other, little or nothing advanced the engineering techniques of the programs that make these same work Computer technical supports, i.e. the softwares, as well as the conceptual theories that lie to them, structuring them, which have their origins and genesis. The purpose of this article is to try to clarify the possible misconceptions of mass media, and, ultimately, by the scientists themselves and enthusiasts of IA, namely: the fact of announcing ' to the four Winds ' the eminence of the emergence of systems Cybernetic-Informational really intelligent, pretensionally alive, aware of themselves and also the world that surrounds them, something that definitely does not find echo in factual reality, nor much less still in the current limits of computing.

Keywords: Artificial intelligences (IA); Limits of computing; Technology critique

Introdução

Pessoa alguma negará que a matemática é feita com o uso

do cérebro. No entanto, nenhuma máquina construída pelo

homem [ser humano] conseguiu ainda reproduzir as

faculdades de razão e invenção de nossa máquina [?]

cerebral

Jean-Pierre Changeux e Alain Connes (1995, p.7)

Desde o fim da Segunda Guerra Mundial (1945), teóricos e pesquisadores das inteligências artificiais (IA1) acreditam que o corpo humano e a consciência que dele emerge poderiam ser replicáveis em instâncias não-biológicas e/ou artificiais. Há, de fato, diversas datações e eventos correlatos que remetem à origem desse interessante e controverso campo de pesquisa pluridisciplinar denominado Inteligências Artificiais, ou IA. Rodney Brooks (1991, p. 139), por exemplo, informa-nos que

a inteligência artificial começou como um campo cujo objetivo era replicar inteligência de nível humano em uma máquina. As primeiras esperanças diminuíram à medida que a magnitude e a dificuldade desse objetivo foram apreciadas. Lento progresso foi feito ao longo dos 25 anos seguintes, demonstrando aspectos isolados da inteligência. Trabalhos recentes tendem a se concentrar em aspectos comercializáveis de “assistentes inteligentes” para trabalhadores humanos.

Isso tem levado a uma aceleração dos avanços em determinadas áreas das pesquisas em IA, progresso esse que não aconteceu analogamente em outras. Todavia, o que fez com que as pesquisas em IA arrefecessem, na segunda metade do século XX, foi a experiência prática desfavorável que explicitou as suas limitações e contingências. Muitas promessas foram feitas, e, de fato, várias delas não foram cumpridas.

Ou seja, engendrar uma real inteligência não se mostrou tarefa fácil na labuta cotidiária dos pesquisadores e engenheiros das IA, e pouco a pouco a dura realidade começava a se impor, o que significa dizer, tornavam-se mais nítidos os limites da computação. Mas, retornando ao âmbito das conceitualizações e definições, colhemos da lavra de Frederick Brooks (1986, pp. 14-15) a seguinte afirmação:

Duas definições bastante diferentes de IA são comuns hoje em dia. AI-I: O uso de computadores para resolver problemas que antes só podiam ser resolvidos aplicando inteligência humana. AI-2: O uso de um conjunto específico de técnicas de programação conhecidas como heurísticas ou baseadas em regras. Nessa abordagem, os efeitos humanos são estudados para determinar quais heurísticas ou regras práticas usam na solução de problemas... O programa é desenhado para resolver um problema da maneira como os humanos parecem resolvê-lo codificados na base de regras de maneira uniforme, e ferramentas são fornecidas para desenvolver, alterar, testar e documentar a base de regras. Isso regula grande parte da complexidade do próprio aplicativo. O poder de tais sistemas não vem de mecanismos de inferência cada vez mais sofisticados, mas de bases de conhecimento cada vez mais ricas que refletem o mundo real com mais precisão.

Tais sistemas são chamados de sistemas especialistas. E, como escreve Frederick Brooks (1986, p. 15) “o pré-requisito essencial para a construção de um sistema especialista é ter um especialista”, ou seja, o primeiro problema de relativa robustez e complexidade a ser enfrentado para a concepção de uma verdadeira inteligência artificial (i), é conseguir encontrar um especialista extraordinariamente competente, que seja capaz de resumir e sintetizar todas as possibilidades potenciais que o sistema artificial irá encontrar em situações reais que requeiram a inteligência de sua área de especialidade. Transformar esse contexto indeterminado numa coleção de axiomas, então, torna-se mais complicado ainda.

Mas a pergunta espinhosa ainda é: como representar bom senso e inseri-lo num sistema cibernético-informacional? Um segundo problema, não menos sério e também difícil de enfrentar nesse âmbito das limitações (ii), é conseguir formalizar tais conhecimentos em linguagem computacional, ou seja, transformar tudo isso que o especialista pretensamente definiria em dados computáveis, de forma bem definida e determinada, sem ruídos ou ambiguidades, e em seguida implantar com eficiência esse conhecimento na máquina por meio de um software que replique a própria inteligência do especialista humano.

Além disso, (iii) seria necessário que ele (software) fosse capaz também de atualizar esses seus conhecimentos e saberes heuristicamente, autonomamente, através de erros e acertos, fazendo novas descobertas, classificando memórias continuamente, de modo a acompanhar a dinamicidade do ambiente em que está inserido. Infelizmente, tais metas, hoje, parecem realmente inatingíveis, principalmente se considerarmos que um software é uma ideia, um conceito, uma abstração, e que, como tal, possui características intrínsecas das quais eles não podem escapar de nenhuma maneira, o que impõe limitações significativas ao próprio processo.

O ser humano continua sendo o modelo de inteligência que uma máquina pretensamente inteligente deve sempre procurar simular, pois só será considerado de fato inteligente um sistema que exiba características comportamentais e de faculdades e propriedades muito semelhantes às nossas.

Porém, como sabemos, certas propriedades biológicas são simplesmente insimuláveis num sistema artificial. Pelo menos, por enquanto (2018) e, principalmente, se o referido sistema for concebido e construído segundo a teoria computacional que possuímos até agora. Num só termo, ainda é impossível fazê-lo, tendo em vista o estado da arte atual dos sistemas cibernético-informacionais mais avançados de nossos dias.

Ainda assim, e seguindo a mesma linha de raciocínio, como implantar nela (IA) uma autoimagem de si mesma, um horizonte de compreensão e significação sensível da amplíssima realidade que 'aí está' no mundo, a englobar tudo no âmbito societal? Como ensiná-la o que significa sentido? A resposta é óbvia e um tanto quanto desconcertante: isso é impossível, pelo menos por enquanto. Se “não há ninguém 'ali dentro' ainda” -como diz Daniel Dennett2-, alguém vivo que tenha uma relação com a história, com o mundo, consigo mesmo, que possua uma vida, valores, corporalidade, sentimentos, sensibilidades, relações sociais, logo, não poderá haver também subjetividade, compreensão de mundo, de si mesmo e assim por diante. Como nos informa António Damásio (2011, p. 16), “sem a consciência -isto é, sem uma mente dotada de subjetividade-, você não teria como saber que existe, quanto mais saber quem você é e o que pensa”.

Nós mesmos, os seres humanos, quando interagimos com o mundo que nos circunscreve, estamos sempre a redescobri-lo, a resignificá-lo, já que a realidade em si é sempre volátil e arredia, constituída no movimento e na duração, como exprimiu muito bem Henri Bergson,3 de maneira que a consciência e a inteligência precisam se manter em constante atualização. São muitas as potencialidades possíveis no objeto dinâmico chamado realidade.

O previsível sim, quem sabe possa ser computado, pré-programado, mas o imprevisível, o que ainda não aconteceu, as possibilidades recursivas inimagináveis, as propriedades emergentes e o próprio acaso, por exemplo, são impossíveis de se conceber a priori e de se pré-implantar num sistema de IA qualquer. O nosso cérebro, que funciona como um extraordinário antecipador de cenários, é bioevolutivamente preparado e constituído para enfrentar exatamente esse tipo de ambiente incerto e oscilante,4 ou, na linguagem peirceana, um objeto dinâmico5, como também são os demais seres vivos da biosfera. E ele (cérebro) só é capaz de realizar tudo isso, como nos informa António Damásio (2015, p. 266), porque ele é

um sistema de sistemas. Cada sistema compõe-se de uma elaborada interligação de regiões corticais pequenas porém macroscópicas e de núcleos subcorticais, os quais são compostos por circuitos locais microscópicos, compostos, por sua vez, de neurônios, todos ligados por sinapses.

Enfim, um sistema bioevolutivamente constituído justamente para interação e interface com esse complexo e dinâmico ambiente externo. Ou seja, em termos teóricos mas também práticos, não bastaria um robô, androide e/ou software, que ‘lembrasse’ de tudo o que experiencia em seu cotidiano, seria necessário também triar, descartar e atualizar o conhecimento que se adquire6 com algum grau de consciência.

É por isso também que não pode haver no referido sistema cibernético-informacional hipotético emoção, dor, prazer, medo, amor e assim por diante, pois tudo isso é não computável, e advém única e exclusivamente da biologia, isso se, e somente se, houver corpo, e sempre através da mente e da inteligência que são imanentes desses rebuscamentos e complexificações bioevolutivas dos organismos vivos. Tudo o que existe é a nossa própria engenhosidade e inteligência estendida nos objetos técnicos que concebemos e usamos.7 Enfim, é o ser vivo -em sua subjetividade ativa- que catalisa a experiência de existir, e, sem ele, resta apenas um sistema sem razão intrínseca de ser.8

Sem essa monumental teia que entretece o sujeito e a sociedade, o indivíduo e a cultura, o corpo e os sentidos, simplesmente não se pode ter as faculdades e propriedades da vida, consciência, e, nem muito menos ainda, inteligência. Mesmo porque, no âmbito biológico -como nos informa António Damásio (2011, p. 24)-, “para que a mente se torne consciente, um conhecedor, seja lá como for que o chamemos -self, experienciador, protagonista-, precisa ser gerado no cérebro. Quando o cérebro consegue introduzir um conhecedor na mente, ocorre a subjetividade”.

Assim sendo, mesmo que se tenha um software simulando uma pseudo-consciência, num nível avançado de minúcias e detalhes, ainda assim, qual seria a finalidade útil desse sistema cibernético-informacional, se não houver humanos para doar-lhes sentido, utilidade, para demanda-lo, incitá-lo à ação, à resolução de problemas? Para nada, novamente, é a resposta. Simplesmente os computadores não se moveriam, não agiriam, pois não teriam ‘motivos’ para isso. E não se moveriam, agiriam e nem processariam absolutamente nada, simplesmente porque não existiriam na realidade factual ontológica do mundo, como entes animados, como agentes inteligentes e conscientes de si, pois não possuiriam ontologia de vivo, e seriam apenas objetos inanimados do mundo físico.

A imensurabilidade do humano

No cérebro, o programa e a máquina [?] -para empregar o

modelo de Turing- estão, desde os primeiros estágios do

desenvolvimento, muito imbricados com a arquitetura

conexional

Jean-Pierre Changeux e Alain Connes (1995, p. 185)

Nós humanos, por nosso turno, como seres vivos e animados, emotivos e sensitivos, somos motivados e movidos por forças intrínsecas que não nos abandonam nunca enquanto estamos vivos; e tudo isso, triado e interpretado por uma mente consciente e inteligente que vai driblando as ambiguidades e irrelevâncias da realidade dinâmica, acaba conferindo um sentido à própria existência de cada ser individual.

Referimo-nos à ontologia, tão cara à filosofia, ou, como diria Martin Heidegger, do acoplamento estrutural do ser-aí-no-mundo que, definitivamente, as máquinas e sistemas de IA de nossos dias -ainda- não têm. O que nos move (seres vivos), por outro lado, é uma complexidade extraordinária, bem mais ampla e sistêmica do que uma mera sequência numérica qualquer. Isso é um tanto quanto óbvio, mas muitos ainda insistem nesse tipo de especulações.

Os algoritmos são muitíssimo úteis e versáteis, mas, por enquanto, ainda possuem limitações intrínsecas referentes à maneira como são processados e lidos por um computador, e também ao que pode ou não ser representado matematicamente, enfim, ao que pode ser simulado e reproduzido num computador concebido nos moldes da máquina universal de Alan Turing. Como nos informa Robert Kowalski (1979, p. 424),

um algoritmo pode ser considerado como consistindo em um componente lógico, que especifica o conhecimento a ser usado na solução de problemas e um componente de controle, que determina as estratégias de solução de problemas por meio das quais esse conhecimento é usado. O componente lógico determina o significado do algoritmo, enquanto o componente de controle afeta apenas sua eficiência.

Como lemos em Ramos, Neto e Vega (2009, p. 641), algoritmo é a “descrição finita de um procedimento. Conjunto de ações bem definidas que produzem um resultado pretendido após um tempo finito de processamento”. Kowalski (1979, p. 435) também nos esclarece que “os algoritmos convencionais podem ser considerados como consistindo de dois componentes: 1) um componente lógico que especifica o que deve ser feito, e 2) um componente de controle que determina como deve ser feito”. “Um algoritmo [escrevem Dina Goldin e Peter Wegner (2004, p. 3)] é uma receita, um conjunto de instruções ou as especificações de um processo para fazer algo. Essa coisa geralmente resolve um problema”. Uma das técnicas usadas é a lógica predicada. “A lógica predicada [informa-nos Robert Kowalski (1979, p. 424)], é uma linguagem de alto nível voltada para o ser humano para descrever problemas e métodos de solução de problemas para computadores”. Vejamos que se trata de uma organização sistêmica relativamente simples, conceitualmente falando, no sentido de ser determinável, e que possui, por isso mesmo, limitações intrínsecas internas ao sistema.

Nesse sentido, como conseguir reduzir o incomensurável não determinado e dinâmico da realidade mundana que nos circunscreve e reduzi-lo ao mensurável, representável e determinístico em termos computacionais?

A propósito, a respeito disso (ou seja, das tentativas de tentar traduzir o humano em linguagem matemática), e ao contrário do que muitos acreditam, o universo e a natureza viva não são entes matemáticos.9 E é importante reafirmar isso novamente em outros termos: o universo e a natureza não se estruturam matematicamente, de modo que o fenômeno físico independe completamente da linguagem e da teoria matemática para de fato se manifestar, mesmo porque a matemática é uma criação da mente humana, que, por sua vez, ocupa um lugar na história, que é muito mais recente do que a bioevolução.

Isso não impede que usemos as matemáticas e os poderosos computadores algorítmicos para fazer aproximações e representações probabilísticas úteis e cada vez mais precisas dessas mesmas realidades que encontramos no mundo físico, na natureza, no universo conhecido, e que tentamos conhecer e explicar.

A informação sem a mente é só informação e nunca poderá se tornar sozinha conhecimento10. Pois é a mente que dirige a informação no sentido do conhecimento. E não pode porque conhecimento é conhecimento para alguém, e, nesse caso, esse alguém não existe.11 A máquina, por si mesma, ignora o sentido, a razão, a sua própria utilidade funcional, estruturação interna e assim por diante.12

No âmbito biológico, por sua vez, as complexidades do cérebro e da mente, sustentando a inteligência e a consciência, são de fato enormes, extraordinárias, de maneira que representá-las formalmente seria de fato bastante improvável, segundo os limites conceituais atuais. Jean-Pierre Changeux e Alain Connes (1995, p. 106) são extremamente instrutivos para nós nesse ponto, quando descrevem em detalhe a fisiologia da atividade cerebral:

O conjunto de nosso encéfalo se compõe de cerca de cem bilhões de neurônios, o que é, de certo modo, um número elevado! Esses neurônios encontram-se ligados entre si por zonas de contato descontínuo, ou sinapses. Há em média por volta de dez mil por célula nervosa. Isso significa um número total de sinapses, em nosso cérebro, da ordem de 10 [elevado à décima quinta potência (15)]. É uma cifra astronômica.

Ou seja, é um volume conexional extraordinário, para o qual não há ainda uma representação satisfatória e minimamente reproduzível. A teoria não pode se impor -ou não deveria se impor- à manifestação física do próprio fenômeno. E o fenômeno em questão exibe uma complexidade que desafia as mais arrojadas teorias e representações que possuímos.

O organismo humano é um sistema biológico de altíssima complexidade que possui propriedades e faculdades fisioquímicas extraordinárias, que permitem a ele a recursividade e a retroalimentação, a homeostase, e também objetivam permitir a ele refinar a melhor emoção, que, por sua vez, propiciará uma ação coordenada no mundo em que está inserido e deve performar.

Sobre a complexíssima atividade cerebral, György Buzsáki (2006, p. 334) escreve que “a informação neuronal é lançada paralelamente em múltiplas malhas justapostas e sobrepostas, dificultando a distinção entre o processamento superior e inferior”. Todavia, engrossando o coro de pensadores e pesquisadores que se deram conta da complexidade do próprio fenômeno da mente que emerge do cérebro, e observando os empecilhos extraordinários que existem à revelia de nossa volição, escreve György Buzsáki (2006, p. 341), “infelizmente, sem uma compreensão completa dos mecanismos fisiológicos subjacentes aos padrões de campo macroscópicos, pode-se apenas especular o que acontece no nível neuronal”. “A mente humana é intangível [escreve Steven Mithen (2002, p. 17)], uma abstração. Apesar de estudada durante mais de duzentos anos por psicólogos e filósofos, ela foge a definições e descrições adequadas”. Como nos informa ainda Steven Mithen (2002, p. 23), “um dos argumentos da nova psicologia evolutiva é que a noção da mente como mecanismo de aprendizado geral, como se fosse um tipo de computador poderoso, é incorreta”.

Se não bastasse a complexidade da atividade neuronal em si, por assim dizer, vista como ‘localmente’, enfim, a comunicação entre os neurônios que estão próximos espacialmente uns dos outros, há também as interações de módulos distantes, de regiões não imediatamente conectadas, que se conectam com outras regiões e módulos não-localmente, o que de fato aumenta muito a complexidade de todo o sistema neuronal que se deseja compreender e representar. Nesse âmbito de complexidade, nessa dimensão de indeterminação, a pergunta que não quer calar é a seguinte: como replicar uma dinâmica tão complexa como essa numa linguagem formal computável no interior de um computador ou robô? Ou seja, como modelar um software que compute o que é teoricamente incomputável? Irrepresentável? Não quantificável? Eis a questão posta.

Acerca de um hipotético simulacro de corpo

Podemos, com ajuda da tecnologia avançada e dos dados

neurológicos, criar um artefato consciente? [...] Eu tenho

duas respostas [...]. Não, há poucas possibilidades de

criarmos um artefato com qualquer coisa que se

assemelhe à consciência humana [...]. Sim, podemos criar

artefatos com os mecanismos formais da consciência [...],

e pode ser possível afirmar que esses artefatos possuem

algum tipo de consciência

António Damásio (2015, p. 251)

Vejamos uma hipótese relativamente simples e pouco ambiciosa -em termos do estado atual da arte das ciências computacionais, robóticas, mecatrônicas, da engenharia de novos materiais, IA e assim por diante- e juntemos num só corpo cibernético-informacional pernas e braços biônicos, superfortes e flexíveis; que fossem amparados por um esqueleto de titânio muito mais leve e resistente do que os ossos humanos são; e que fosse recoberto por musculatura e tecidos de fibra sintética indeformável e ultra resistente, graças à nanoestruturação de novos materiais, mais fortes que o titânio e o kevlar, por exemplo; cuja sensibilidade tátil pudesse ser em muitos graus aumentada, e também alimentada, mantida e distribuída informacionalmente através do sistema por feixes de fibras óticas muitíssimo finos, sensíveis e também potentes, capazes de sustentar um tráfego brutal de dados e informações, algo que certamente seria necessário para a consumação de sua sensorialidade, otimizando os comandos internos e captando e processando estímulos externos; e que fosse dotado com uma estrutura mecatrônico-robótica robusta e igualmente sofisticada, para centralizar todas as operações e ações.

Adicione a esse corpo, no que fosse a sua cabeça, o sistema ótico-imagético-visual mais moderno e sofisticado que existir; bem como um de emissão e captação de sons de última geração; e certamente já teríamos uma máquina que -pelo menos teoricamente- poderia nos superar em muitas atividades pontuais do nosso dia a dia. Não todas, mas em muitas delas, com certeza.

Todavia, mesmo possuindo um corpo tão resistente e poderoso, tão flexível e durável, versátil e capaz, tão veloz e forte, faltar-lhe-ia o principal. Ou seja, para que esse nosso ser robótico cibernético-informacional hipotético pudesse se tornar de fato um ente vivo, um ser pensante e criativo, capaz de atualizar constantemente seus próprios conhecimentos e saberes, seria absolutamente necessário equipá-lo com um processador que fizesse as vezes de cérebro, um constructo cibernético-informacional igualmente potente e extraordinariamente capaz como o nosso biológico, o que não seria uma tarefa fácil nos dias atuais.13

Mas, ainda assim, imaginemos hipoteticamente que o nosso robô de fato pudesse ser construído segundo a nossa estatura média, no que for possível, à nossa imagem e semelhança, e que ele possuísse um processador tão capaz quanto os nossos cérebros,14 em termos de operações lógico-emotivo-cognitivas, e que, além disso, também, tivesse à sua disposição um avançadíssimo sistema operacional de comunicação sem fio com os seus hipotéticos pares robóticos, capacitando-o a se conectar automaticamente com os demais aparatos técnicos de nossa cultura. Mesmo assim, faltar-nos-ia ainda, em nosso projeto hipotético de ser cibernético-informacional, um elemento chave e de fato fundamental para a estruturação de qualquer ente animado: a consciência. Enfim, uma estruturação psíquica-emocional-corpórea de vivente -ainda que não seja necessariamente biológica- instanciada no interior da cabeça de nosso androide ou robô.

Ou seja, seria necessário obter algo de fato extraordinário, o que vale dizer, um simulacro perfeito do órgão mais misterioso e complexo do corpo humano -o cérebro-, órgão esse bioevolutivamente constituído através das eras imemoriais para ‘chegar’ exatamente ao que é capaz de realizar atualmente, ou seja, esse aglomerado de massa neuronal de aproximadamente um quilo e meio, fortificado dentro de nosso sólido crânio, estrutura essa que ‘graciosamente’ produz e ampara a nossa existência física e intelectiva. E fazê-lo -o que é muitíssimo complicado, senão impossível- de forma artificial. De modo que seria necessário conceber e construir, em tempo infinita e incomparavelmente menor -em algumas poucas décadas,15 por exemplo-, uma réplica perfeita do melhor de nós mesmos e de nossa bioevolução, de nosso órgão mais misterioso e complexo, imitando o único modelo16 existente e disponível que realiza tal atividade, enfim, o próprio cérebro, e fazê-lo numa outra plataforma, emulando propriedades e comportamentos que até hoje só existem e são possíveis no universo da biologia e do vivo.17

Sobre os limites da computação

O fato é que, nos séculos que nos separam dos escritos de

Descartes, os filósofos, lógicos, matemáticos e

pesquisadores da ciência da computação conseguiram

isolar os princípios gerais do raciocínio matemático, e os

engenheiros eletrônicos criaram máquinas que calculam de

acordo com esses princípios. O resultado é esse objeto

portátil que teria assombrado Descartes

Paul Churchland (2004, p. 39)

Como já mencionamos superficialmente nas seções anteriores, há limites irremovíveis no que tange à computação e ao âmbito da modelagem e engenharia de software. Um computador, seja ele qual for, é uma máquina concebida segundo a lógica de máquinas universais Turing, o que vale dizer, que são modelos representativos conceituais abstratos, que operam segundo quatro regras básicas, a saber: avançar, recuar, incluir e excluir, que se dão numa espécie de fita infinita que é a memória.

Daí advém o fato de serem chamadas de máquinas universais. Em certo sentido, elas são abstrações descritivas conceituais, capazes de suportar outras representações descritivas conceituais também abstratas -que são os programas-, que, por sua vez, simulam de forma limitada e pré-programada tal ou qual inteligência, faculdade ou propriedade, estritamente de acordo com as instruções inscritas em seu programa, ou seja, em seu software.

Além disso, as máquinas Turing também operam segundo a arquitetura de Von Neumann, o que significa dizer que são compostas de unidades de memória, de controle e executiva. Como escreve Umberto Pesavento (1996, p. 338),

Von Neumann definiu um construtor universal como uma máquina capaz de (a) ler a descrição de um conjunto de células quiescentes arbitrárias a partir de uma fita, (b) produzir excitações em um campo de células no estado em branco para construir a célula quiescente descrita na montagem e, finalmente, (c) ativar esse conjunto de células por uma excitação de partida. A máquina de auto-reprodução [...] é obtida de um construtor universal, fornecendo-lhe uma descrição do próprio construtor e adicionando a ele a capacidade de copiar a descrição fornecida.

“Uma das principais deficiências dos autômatos celulares de von Neumann, no que diz respeito ao processamento paralelo [informa-nos ainda Umberto Pesavento (1996, p. 350)], é a falta de cruzamento de sinal. Essa falha torna as estruturas implementadas em tais autômatos incômodas e muito fracamente paralelas”. Algo aparentemente simples, pelo menos em tese e para os técnicos envolvidos, mas que pode requerer de um leitor leigo interessado, de fato, um pouco mais de dedicação criativa, no sentido de imaginá-la (máquina universal Turing-Von Neumann), compreendê-la, e também de ter claro em mente as suas potencialidades, como também, por outro lado, as suas irremovíveis limitações.

Lembrando que até aqui tratamos apenas do hardware, o que vale dizer, da estrutura técnica necessária à computação, estrutura essa que, para poder funcionar, precisa ser dotada também de softwares que estejam em conformidade com as mesmas potencialidades e limitações dessas máquinas computacionais. Nesse sentido, no que se refere ao software, ou ao que poderia ser chamado de sua ‘natureza’ intrínseca, existe uma característica importante chamada essência. Como nos informa Frederick Brooks (1986, p. 11),

a essência de uma entidade de software é um conjunto de conceitos interligados: conjuntos de dados, relações entre dados, algoritmos e invocações de funções. Essa essência é abstrata na medida em que tal construção conceitual é a mesma sob muitas representações diferentes. No entanto, é altamente preciso e ricamente detalhado.

Assim sendo, continua Frederick Brooks (1986, p. 11), “as descrições de uma entidade de software que abstraem sua complexidade geralmente abstraem sua essência”, ou seja, o mesmo pode ser dito no sentido inverso, do limite de sua complexidade, enfim, querer imaginar que um software ou programa pode adquirir inteligência e consciência por si, seria o mesmo que sugerir que ele pode atuar além de sua programação original, o que seria o mesmo que abstrair sua essência mais estruturante.

Mas, o que é afinal um computador? Uma boa definição é que ele é uma máquina de estados discretos que torna acessível matemáticas avançadas, executando cálculos extraordinários, muito rápido, fundamentados em conceitos igualmente complexos, equipamentos que usamos no dia a dia para as mais diversas finalidades, sem que nem mesmo saibamos disso. Em última instância, e no extremo, um computador universal do tipo Turing/Von Newmann é um constructo que trabalha matematicamente, com a ressalva de que ele trabalha apenas uma parte da matemática humana que pode ser computacional, ou seja, computada. Ou, em outros termos, a matemática de números computáveis, que não é absolutamente idêntica à matemática humana.

Diante disso, em primeiro lugar, o problema que se coloca à nossa reflexão -na dicção de Jean-Pierre Changeux e Alain Connes (1995, p. 179)- é o seguinte: “poderemos algum dia construir uma máquina de Turing, com performance idêntica à do cérebro humano, se o cérebro humano é por sua vez uma máquina de Turing”.

O que precisa ser retido é que uma máquina Turing trabalha com um espectro limitado de números computáveis, ou seja, os que estejam ao alcance dessas teorias e arquiteturas. Para superar algo assim tão estruturante, tornar-se-ia necessário conceber um computador que fosse capaz de computar o que hoje é incomputável, como sentido, valor, significado e assim por diante. Necessário também seria que ele exibisse um alto grau de sensibilidade e autoconsciência, e que pudesse, acima de tudo, se autocorrigir e se atualizar heuristicamente. Segundo Jean-Pierre Changeux e Alain Connes (1995, p. 103), seria necessário “um computador que, no jogo de xadrez [por exemplo], conseguisse compreender seus erros para deixar de cometê-los depois, ou que inventasse uma [nova] estratégia. No lugar de ter na memória uma lista de aberturas [jogadas], inventaria uma nova abertura”.

Todavia, enquanto isso não acontecer, podemos defender a posição relativamente sólida de que estamos bastante distantes de um contexto assim, em que máquinas sejam pretensamente inteligentes, conscientes, autopoiéticas18 e também autossuficientes. Changeux e Connes (1995, p. 193) sustentam absolutamente o mesmo: “Não estaríamos longe de um novo modelo de computadores capazes de adaptação, se não houvesse o problema da complexidade, que impede de produzir máquinas quando a complexidade do algoritmo é de crescimento exponencial”.

O que impressiona é o fato de, ainda hoje -cinquenta anos depois-, muitas dessas suposições continuarem residindo na mera prematuridade das hipóteses. No que se refere à teoria de Von Neumann do Self-reproducing automata, Umberto Pesavento (1996, p. 337) esclarece que

a extensão conceitual de von Neumann é relevante do ponto de vista bio-teórico, uma vez que proporcionou pela primeira vez as condições necessárias para que um sistema seja capaz de auto-reprodução. No entanto, devido ao rígido determinismo que governa as máquinas de Von Neumann, bem como a falta de tolerância a falhas, elas não são bons modelos de seres vivos.

Ou seja, como referenciamos reiteradamente ao longo desse ensaio, existe um vertiginoso abismo separando a capacidade e potência de computação atual, por um lado, e da modelagem objetiva de sistemas vivos, inteligentes e conscientes, por outro, já que não se compreende completamente a fenomenologia biológica.

Conclusivamente, as afirmações que fizemos no decorrer desse artigo sobre os limites da computação e sobre a impossibilidade de mensurar o fenômeno complexo humano em linguagem computacional de forma conceitual, seja formalmente, seja matematicamente, também têm origem no próprio conhecimento formal que possuímos hoje, como o problema enunciado no teorema da incompletude de Gödel, por exemplo. Socorremo-nos novamente na lavra de Changeux e Connes (1995, p. 174), de modo a aclarar a dimensão do desafio que subjaz ao sonho de construir máquinas realmente inteligentes e conscientes:

O teorema da incompletude de Gödel [...] afirma que, quaisquer que sejam os axiomas, em número finito ou dados de maneira recorrente, existem sempre questões às quais não podemos responder, que permanecem indecidíveis, e para as quais nos faltarão informações. Em outros termos, o teorema de Gödel especifica que é impossível tomar um número finito de axiomas de tal modo que toda questão seja decidível. O que não significa que não podemos analisar uma questão a partir do que sabemos, mas que o número de questões interessantes e novas que precisarão ser adicionadas à resposta é infinito.

Assim sendo, diante de possibilidades infinitas, não é possível depreender quaisquer representações finitas que possam, ainda assim, ser fiéis à realidade biológica. Além disso, como lemos em Von Neumann, há outros problemas potenciais que se apresentam sob a forma de paradoxo. Poderia, por exemplo, uma inteligência qualquer criar uma inteligência igual ou superior à sua própria. Nesse sentido, muito se fala de máquinas dotadas com IA concebendo e produzindo outras máquinas de IA mais inteligentes que elas mesmas, geração após geração, mas o próprio Von Neumann (1966, p. 79) explica que,

todos sabem que uma máquina-ferramenta é mais complicada que os elementos que podem ser feitos com ela, e que, em geral, um autômato A, que pode fazer um autômato B, deve conter uma descrição completa de B e as regras sobre como comportar-se enquanto efetua a síntese. Assim, dá-se uma impressão muito forte de que a complicação, a potencialidade produtiva de uma organização, é degenerativo, que uma organização que sintetiza algo é necessariamente mais complicada, de uma ordem superior, do que a organização que sintetiza.

Conclusão

Diante do relato exposto ao longo desse artigo, é fácil perceber que as promessas demasiado auspiciosas de alguns entusiastas provocaram uma expectativa no imaginário popular no que diz respeito a um possível engendramento de inteligências artificiais complexas em um meio cibernético-informacional. Todavia, tais promessas definitivamente não encontram eco na realidade factual dos dias atuais, principalmente se levamos em conta o estado da arte de fazer computadores e programas. Se ainda não temos robôs andando por aí, indubitavelmente inteligentes e conscientes, assim como nós, é simplesmente porque esse tipo de realização ainda está longe de nosso alcance objetivo em termos técnicos e tecnológicos. Assim sendo, uma coisa de fato simples é sonhar com um robô de inteligência superior semelhante à nossa, consciente de si e do mundo, e outra completamente diferente é construí-lo na realidade factual com a potência e a performance necessárias para resistir a quaisquer comparações com um organismo humano bioevolutivamente estruturado e constituído.

É relativamente fácil, por outro lado, perceber o quanto falta às ciências para alcançar o complexo biológico, no sentido de compreender na plenitude o que seja e signifique ser um humano. Assim, no sentido de uma possível conclusão de nossas reflexões até aqui, acreditamos ser pertinente sustentar que, para que possa surgir uma forma realmente complexa de inteligência artificial em sistemas cibernético-informacionais, faz-se necessário conceber primeiro novas maneiras de processar informações e dados, enfim, novas maneiras de computar, que não seja a já exaustivamente mencionada máquina universal Turing, associada à arquitetura Von Neumann. Martin Davis (2006, p. 126) confirma essa tese, informando-nos de que devemos ver a “computabilidade de Turing como um limite superior teórico e prático para o que pode ser calculado”.

O que vale dizer que, não basta apenas conceber novas abordagens na engenharia de software, na elaboração de programas, nem muito menos avanços progressivos de potência e velocidade nos hardwares, faz-se necessário também algo muito mais desafiador e extraordinário, que seria a concepção de novas formas de computação, numa linguagem diferente da dos algoritmos, pois, como afirmamos logo no início de nossas argumentações, certas qualidades e propriedades do humano biológico vivo são impossíveis de serem representadas fidedignamente por meio da linguagem mais universal, versátil e poderosa que possuímos na atualidade: a matemática.

Ademais, como acrescentam Dina Goldin e Peter Wegner (2004, p. 5), “algoritmos, modelados por TMs, [máquinas de Turing] permaneceram centrais para a ciência da computação até hoje”. Ou seja, ainda que se fale de redes neurais, de aprendizagem de máquina e aprendizagem profunda, hipercomputação ou mesmo quântica, ainda assim, estaremos fazendo referência exatamente a um tipo limitado de processamento computacional, cuja lógica conceitual teórica continua absolutamente idêntica às máquinas universais Turing/Von Neumann.

O que percebemos, é que existem possibilidades latentes em alguns aspectos para avançar nas técnicas de processamento de dados e modelagem de IA complexas, mas todas elas esbarram ou acabam esbarrando nas limitações do não computável, do não determinável, do imensurável dos sistemas biológicos vivos, por exemplo, que se auto-organizam e se auto-atualizam constantemente, ou seja, que atualizam seus próprios conhecimentos durante o ato de conhecer.

Martin Davis (2006, p. 131), fazendo referência às hipóteses da física hipercomputacional, o que vale dizer, um esforço para computar o incomputável, finaliza o seu artigo The Church-Turing thesis - Consensus and opposition escrevendo que,

supondo que [...] [um] observador possa alimentar problemas a um dispositivo sujeito a essa compressão de um tempo infinito, tal dispositivo poderia de fato resolver o insolúvel sem recorrer ao milagre de Kieu[19] de uma computação infinita em um período de tempo finito. É claro que, mesmo supondo que tudo isso realmente corresponda ao universo real em que vivemos, ainda há a questão de saber se um dispositivo real para aproveitar esse fenômeno é possível. Mas a questão teórica é certamente de interesse.

Notemos que Martin Davis situa tais teses no campo meramente hipotético, ou seja, como uma especulação um tanto distante da realidade mundana em que estamos inseridos, onde ainda reinam absolutas certas limitações. Nesse sentido, concluímos nosso raciocínio e argumentações juntamente com Dina Goldin e Peter Wegner (2004, p. 7), sustentando que,

embora os cientistas práticos da computação há muito tempo tenham ampliado o conceito de algoritmos para além da computação de funções, a ciência da computação teórica manteve a cosmovisão matemática. Apesar do trabalho teórico de complexidade avançada que se aventura fora dessa visão de mundo, como algoritmos on-line e distribuídos, jogos Arthur-Merlin e provas interativas, nosso tratamento da Teoria da Computação no nível de graduação não mudou. Os princípios matemáticos continuam a enquadrar a computação como baseada em funções e a delimitar nossa noção de problema computacional.

Referências

Bergson, Henri (1979). A evolução criadora. Rio de Janeiro: Zahar Editores, 1979. [ Links ]

Brooks, Frederick (1987). No silver bullet. In Computer Review, 1987. [ Links ]

Brooks, Rodney (1991) Intelligence without representation. In Artificial Intelligence 47, Cambridge, MA, USA, 1991. [ Links ]

Buzsáki, György (2006). Rhythms of the Brain. Oxford University Press, 2006. [ Links ]

Button, Graham, COULTER, Jeff, LEE, John e SHARROCK, Wes (1998). Computadores, mentes e conduta. São Paulo: Editora UNESP, 1998. [ Links ]

Chageux, Jean-Pierre e CONNES, Alain (1989). Matéria e pensamento. São Paulo: Editora UNESP/Cambridge University Press, 1995. [ Links ]

Churchland, Paul (1988). Matéria e consciência - Uma introdução contemporânea à filosofia da mente. São Paulo: Editora UNESP, 2004. [ Links ]

Crevier, Daniel (1993). Inteligência artificial. Madri: Acento Editorial, 1996. [ Links ]

Damásio, António (1999). O mistério da consciência - Do corpo e das emoções ao conhecimento de si. São Paulo: Companhia das Letras, (2015. [ Links ]

Damásio, António (2009). E o cérebro criou o homem. São Paulo: Companhia das Letras, 2011. [ Links ]

Davis, Martin (2006). The Church-Turing Thesis - Consensus and opposition. A. Beckmann et al. (Eds.): CiE 2006, LNCS 3988, pp. 125-132, 2006. [ Links ]

Dennett, Daniel (1996). Tipos de mente - Rumo a uma compreensão da consciência. Rio de Janeiro: Rocco, 1997. [ Links ]

Dreyfus, Hubert (1972). O que os computadores não podem fazer - Uma crítica da razão artificial. Rio de Janeiro: A Casa do Livro Eldorado, 1975. [ Links ]

Goldin, Dina e Wegner, Peter (2004). The Origins of the Turing Thesis Myth. USA, 2004. [ Links ]

Hagar, Amit e Korolev, Alex (2007). Quantum hypercomputtion - Hype or computation? USA, 2007. [ Links ]

Kowalski, Robert (1979). Algorithm = Logic + Control. In Communications of the ACM, volume 22, número 7, Londres: Imperial College, 1979. [ Links ]

Kurzweil, Ray (1999). A era das máquinas espirituais. São Paulo: Aleph, 2007. [ Links ]

Le Breton, David (2006) A Sociologia do Corpo. Rio de Janeiro: Editora Vozes, 2006. [ Links ]

Le Breton, David (1999). Adeus ao corpo. São Paulo: Papirus, 2003. [ Links ]

Maturana, Humberto (2014). Cognição, ciência e vida cotidiana. Belo Horizonte: Editora UFMG, 2014. [ Links ]

Merleau-Ponty, Maurice (2002). A prosa do mundo. São Paulo: Cosac & Naify, 2002. [ Links ]

Minsky, Marvin (2006). La máquina de las emociones - Sentido común, inteligencia artificial y el futuro de la mente humana. Buenos Aires, Sudamericana, 2010. [ Links ]

Mithen, Steven (1996). A pré-história da mente - Uma busca das origens da arte, da religião e da ciência. São Paulo: Editora UNESP, 2002. [ Links ]

Moravec, Hans (1988). Homens e robots - O futuro da inteligência humana e robótica. Lisboa: Gradiva, 1988. [ Links ]

Morin, Edgar (2001). O método 2: A vida da vida. Porto Alegre: Sulina/Meridional, 2001. [ Links ]

Morin, Edgar (1996). Complexidade e liberdade. In A sociedade em busca de valores - Para fugir à alternativa entre o cepticismo e o dogmatismo, orgs.: Edgar Morin, Ilya Prigogine e outro. Lisboa, Instituto Piaget, 1996. [ Links ]

Morin, Edgar (1992). Edgar Morin, Contrabandista dos saberes. In Do caos à inteligência artificial - Quando os cientistas se interrogam, org.: Guitta Pessis-Pasternak. São Paulo, Editora UNESP, 1992. [ Links ]

Nietzsche, Friedrich (1871). Obras incompletas. Coleção Os Pensadores. São Paulo: Abril Cultural 1974. Primeira edição. [ Links ]

Pesavento, Umberto (2000). As implementation of von Neumann’s self-reproducing machine. MIT: Artificial Life 2, 1996. [ Links ]

Ramos, Marcus Vinicius Midena, NETO, João José, e VEGA, Ítalo Santiago (2009). Linguagens formais - Teoria, modelagem e implementação. São Paulo: Bookman, 2009. [ Links ]

Ravoux, Jean-Philippe Ravoux (2000). A unidade das ciências - Explicar a natureza e compreender o homem. Lisboa: Instituto Piaget, 2000. [ Links ]

Rosnay, Joël de (1997). O homem simbiótico - Perspectivas para o terceiro milênio. Petrópolis: Vozes, 1995. [ Links ]

Sfez, Lucien (1995). A Saúde Perfeita - Críticas de uma utopia. Lisboa: Instituto Piaget, 1995. [ Links ]

Sfez, Lucien (2002). Técnica e Ideologia - Uma questão de poder. Lisboa: Instituto Piaget, 2002. [ Links ]

Schank, Roger e Birnbaum, Lawrence (1994). Aumentando a inteligência. In A natureza da inteligência, Jean Khalfa (Org.) São Paulo: Editora UNESP/Cambridge University Press, 1995. [ Links ]

Simon, Herbert A. (1992). Herbert A. Simon, O computador-rei. In Do caos à inteligência artificial - Quando os cientistas se interrogam, org.: Guitta Pessis-Pasternak. São Paulo, Editora UNESP, 1992. [ Links ]

Teixeira, João de Fernandes (1993). Cérebros, máquinas e consciência - Uma introdução à filosofia da mente. São Carlos: Editora da UFSCar, 1996. [ Links ]

Teixeira, João de Fernandes (1998). Mentes e máquinas - Uma introdução à ciência cognitiva. Porto Alegre: Artes Médicas, 1998. [ Links ]

Teixeira, João de Fernandes (2010). A mente pós-evolutiva - A filosofia da mente no universo do silício. Petrópolis: Editora Vozes, 2010. [ Links ]

Turing, Alan Madison (1936). On computable numbers, with an application to the entscheidungsproblem. USA, 1936. [ Links ]

Von Neumann, John. (1966). Theory of self-reproducing automata. Londres: University of Illinois Press, 1966 [ Links ]

1“O campo científico da inteligência artificial (IA) [informa-nos Edward Wilson (1999, p. 115)] surgiu na década de 1950 logo depois da invenção dos primeiros computadores eletrônicos. É definido por seus profissionais como o estudo da computação necessária para o comportamento inteligente e a tentativa de reproduzir tal comportamento usando computadores”. Ou ainda, nas palavras de Marvin Minsky apud Hebert A. Simon (1992, p. 223), IA é a “Ciência que faz as máquinas realizarem coisas que os homens [seres humanos] julgam inteligentes quando realizadas por eles”.

2Vejamos o que afirma Daniel Dennett (1997, p. 21), que é diretor do Center for Cognitive Studies, na Tufts University, nos EUA: “No Laboratório de Inteligência Artificial no MIT, Rodney Brooks e Lynn Andrea Stein montaram uma equipe de especialistas em robótica e outros especialistas, (inclusive eu mesmo) para construir um robô humanoide chamado Cog. Cog é feito de metal, silício e vidro, como os outros robôs, mas o projeto é tão diferente, tão mais parecido com o projeto de um ser humano, que Cog pode algum dia se tornar o primeiro robô consciente do mundo”. Entre outras coisas, o robô Cog é programado de modo a direcionar suas câmeras e lentes –ou seja, a sua “visão”– de acordo com o movimento de corpos e objetos no seu entorno, reagindo e focalizando qualquer alvo móvel que entre no seu campo sensível de detecção. “Ser acompanhado desta maneira [informa-nos Daniel Dennett (1997, p. 22)] é uma experiência estranhamente perturbadora, mesmo para aqueles que conhecem o projeto. Olhar dentro dos olhos de Cog enquanto ele por sua vez retorna o olhar pode ser de “estarrecer” para o não iniciado, mas não existe ninguém ali –não ainda”. Notemos bem, esse “ainda não” de Daniel Dennett denota claramente a crença de que, em algum momento, haverá.

3“A ciência [escreve o referido autor (1979, p. 290)] considera sempre momentos, sempre paradas virtuais, sempre, em resumo, imobilidades. O que vale dizer que o tempo real, considerado como um fluxo ou, em outras palavras, como a própria mobilidade do ser, escapa no caso ao domínio do conhecimento científico”.

4Como está em Daniel Nennett (1997, p. 56), em livro intitulado Tipos de mente. Rumo a uma compreensão da consciência, “a tarefa da mente é produzir o futuro, como uma vez o poeta Paul Valéry afirmou. Uma mente é fundamentalmente um antecipador, um gerador de expectativas. Ela sonda o presente em busca de pistas, as quais refina com a ajuda de materiais que economizou do passado, transformando-os em antecipações do futuro”.

5Segundo Charles Sanders Peirce (1839-1914), filósofo e lógico estadunidense, criador da teoria semiótica pragmaticista, o objeto dinâmico é aquele que se transforma o tempo todo e, por isso mesmo, nunca pode ser previsto e determinado a priori.

6E, para tanto, o cérebro não se limita a abordagens lineares e perfeitamente lógicas, podendo adotar, caso necessário, estratégias bastante diversas, mas altamente eficientes, Marvin Minsky (2010, p. 286), por exemplo, sustenta que “quase todo o tempo, nossos pensamentos fluem em forma de correntes sem incidente algum; porém, quando nós tropeçamos com obstáculos e nenhum de nossos métodos habituais soluciona nada, podemos recorrer a estratégias mentais que, de certo modo, podem parecer irracionais”.

7Como escreve Daniel Crevier (1996, p. 296), “se pegamos um programa de IA e tentamos seguir a pista do que constitui a fonte de sua inteligência, veremos que esta desaparece dentro de um labirinto de subprocessos interconectados que, tomados separadamente, são completamente triviais”.

8 Graham Button, Jeff Coulter, John Lee e Wes Sharrock (1998, p. 196) informam-nos que “o computador realmente ‘manipula símbolos’, mas, desta vez, num sentido que é ainda mais acentuado do que o que se refere ao caso do gráfico, num sentido em que o fato de que o que está sendo manipulado são ‘símbolos’ é acessório ao funcionamento do computador. O computador trabalha com eles somente em virtude de seu caráter eletrônico, em virtude do tipo de impulso eletrônico que eles são. O fato de que esses impulsos eletrônicos estão (de maneira complexa e mais ou menos direta) associados a símbolos é irrelevante às operações do próprio computador. O caráter simbólico daquilo com que um computador opera não é relevante para ele, mais sim para nós, seus usuários”.

9Nas palavras de Jean-Philippe Ravoux (2000, p. 67-68) “podemos sublinhar que a verdade matemática não constitui a própria verdade, uma vez que as matemáticas não dizem respeito a coisas: não são a ciência de qualquer realidade”.

10“Dizer a um computador o que é uma ‘boa razão’ [informa-nos Daniel Crevier (1996, p. 124)] tem resultado ser algo surpreendentemente difícil, e o problema da qualificação [grifos nossos] segue sendo um dos maiores obstáculos que entorpecem o caminho até uma autêntica inteligência artificial”. “Esta capacidade intuitiva para discernir entre o que é importante e o que não é importante [continua Daniel Crevier (1996, p. 130)], o essencial e o não essencial, é, segundo [Hubert] Dreyfus, outra operação cognitiva fundamentalmente humana”.

11“[Os computadores, como escreve Daniel Crevier (1996, p. 219)] como máquinas que são, manejam unidades de conhecimento vazias, que reconhecem mas não compreendem”.

12 David Le Breton (2006, p. 192), acerca disso, escreve que o computador é “desprovido de consciência de si, de sensibilidade, é alheio à linguagem e limitado por seus programas; é uma ferramenta por onde transita a linguagem, mas não um sujeito de linguagem. Suporte de conhecimento, como a página de um livro, ignora-lhe o valor ou o conteúdo, não sabe que sabe. Exibe uma informação com a maior indiferença, enquanto o humano está permanentemente comprometido com um movimento afetivo”.

13 Hans Moravec (1988, p. 94) sustenta que, “tendo decidido que um computador com 10 bilhões de operações por segundo (10 teraflops) é suficientemente poderoso para hospedar uma mente do tipo humana, ainda temos de decidir quanta memória devemos incluir”.

14Enfim, seria absolutamente necessário que esse cérebro artificial tivesse a capacidade de chegar a conclusões novas por si, ou seja, que pudesse atualizar seus conhecimentos autonomamente, sendo capaz também de raciocinar, no sentido que compreendemos esse termo hoje, ainda que por via de outros meios, em termos de suporte. Marvin Minsky (2010, p. 350), por exemplo, acerca da dinâmica cerebral, conta-nos que “uma antiga teoría dizia que, cada vez que se utiliza uma ‘rota dentro do cérebro’, esta escava uma espécie de ranura na memoria, de tal modo que no futuro resultará mais fácil seguir essa rota. Uma versão mais moderna desta teoría afirma que as sinapses existentes entre as células do cerebro se vão convertendo em melhores condutores quanto mais se usem, e seguramente há algo de verdade nisso”.

15 Ray Kurzweil (2007, p. 76), quanto a isso, escreve que “poucos observadores sérios que estudaram o assunto afirmam que os computadores jamais atingirão a inteligência humana. Os humanos terão vencido em grande parte a evolução, portanto, atingindo em apenas alguns milhares de anos mais do que a evolução atingiu em bilhões de anos. Então a inteligência humana, um produto da evolução, é muito mais inteligente do que seu criador”.

16“Porque [indaga-nos Daniel Crevier (1996, p. 48)] uma máquina pensante teria que pensar da mesma forma que pensam os humanos? Porém, apesar de tudo, se os humanos podem pensar, porque devemos ignorar totalmente o desenho do único sistema inteligente efetivo que conhecemos?”

17“Dagognet, Serres, McLuhan falam-nos constantemente [informa-nos Lucien Sfez (2002, p. 254)] de um processo técnico sem sujeito, ou ainda de um sujeito único –a técnica, novo deus ex machina–, mas sujeito sem processo ou cujos resultados são unicamente o [próprio] processo”. “Ele [Christopher Langton] diz-nos expressamente que se trata de gerar comportamentos. Ele quer [explica-nos Lucien Sfez (1995, p. 302)] seguir a diligência de [Von] Neumann e passar da análise dos mecanismos da vida aos da lógica da vida. Ele pretende servir-se de cálculos de feed-back artificiais, operados por [Norbert] Wiener, para descobrir a natureza dos mecanismos similares que operam nos organismos vivos”.

18Autopoiético: o mesmo que auto-sustentação; conjunto de princípios definidores da vida e pertinentes aos sistemas envoltos por membranas, auto-delimitados e internamente organizados, que mantêm dinamicamente sua identidade em um meio ambiente qualquer. Além disso, a autopoiese faz referência a sistemas que se auto-produzem e se auto-organizam autonomamente.

19O autor faz referência à unidade de memória nas máquinas tipo Turing/Von Newmann, onde essa unidade é – teoricamente – infinita.

Recebido: 24 de Maio de 2018; Aceito: 20 de Agosto de 2018

*

Alexandre Quaresma Quaresma. É escritor ensaísta e filósofo brasileiro, pesquisador de tecnologias e consequências socioambientais, com especial interesse na crítica da tecnologia. É membro da RENANOSOMA (Rede de Pesquisa em Nanotecnologia, Sociedade e Meio Ambiente) e vinculado à FDB (Fundação Amazônica de Defesa da Biosfera). Autor dos livros Humano-Pós-Humano – Bioética, conflitos e dilemas da Pós-modernidade (2014); Engenharia genética e suas implicações (org.), (2014); Nanotecnologias: Zênite ou Nadir? (2011); e Artificial Intelligences – Essays on Inorganic and Non-biological Systems (org.), (no prelo). Atualmente é Mestrando em Tecnologias da Inteligência e Design Digital pela PUC/SP, e pesquisa as controversas relações entre as Inteligências Artificiais (IA) complexas e as sociedades contemporâneas, tendo publicado diversos artigos sobre a referida temática. E-mail: a-quaresma@hotmail.com Lattes: http://lattes.cnpq.br/6089915050124806

Creative Commons License Este é um artigo publicado em acesso aberto sob uma licença Creative Commons