Por Richard Cocks
Tradução, Notas e Comentários de Helkein Filosofia
John Searle nos apresentou, em meados da década de 80, na intenção de que pudéssemos visualizar a diferença entre as operações próprias dos computadores e as referentes à mente humana, o experimento mental da sala chinesa.[1]
O experimento [da sala chinesa] fez-se necessário no contexto da, então em voga entre os filósofos analíticos, TMC – teoria da mente computadorizada.[2]A TMC muito provavelmente não é verdadeira; os computadores são máquinas e, por conseguinte, dispositivos que operacionais mediante regras. O Teorema de Gödel[3] e a análise de Alan Turing do Problema da Parada[4] provaram que mesmo a matemática não é meramente um exercício de execução de regras pois, caso o fosse, seria formalizável – a saber, seria redutível à manipulação de símbolos sem necessidade de referência a seus significados e, neste cenário, os símbolos seriam [eliminados e] substituídos por zeros e uns. O formalismo matemático, caso possível, significaria que a verdade é irrelevante; mas a prova gödeliana mesma repousa na verdade em momentos críticos, e mente humana é capaz de “visualizá-la”, [as proposições gödelianas] da mesma forma como ocorre em axiomas autoevidentes como p=p, tornando-a, assim irredutível a algoritmos regrados. É por questões assim que máquina alguma pode substituir, no processo de resolução de problemas matemáticos, o matemático humano, e é algo de mesmo tom que podemos compreender na demonstração do problema da parada, onde se vê que são necessários métodos não-algorítmicos (ou seja, métodos não-computáveis) para que seja possível testar algoritmos; por conseguinte, a automatização do processo é impossível e segue-se que a mente humana não pode identificar-se com o procedimento algorítmico.
Sam Harris declarou, recentemente, que é provável que os matemáticos humanos sejam, num futuro próximo, substituídos por computadores; aparentemente ele não está familiarizado com o trabalho de Alan Turing ou com o de Gödel.
Entretanto, pelo menos desde a invenção das mais simples entre as calculadoras, como a que fora criada por Blaise Pascal[5], algumas pessoas, talvez aquelas dotadas de baixa inteligência emocional e, portanto, de percepção fenomenológica prejudicada– percepção da natureza da experiência humana subjetiva –, tendem a imaginar que as máquinas “pensam”, mesmo sob vigorosos protestos em contrário advindos dos inventores de tais dispositivos, que insistiram em afirmar que as máquinas não estavam pensando mas tornando desnecessário que os homens precisassem se preocupar com os aspectos mecânicos – e chatos – do pensamento – a saber, precisamente aquele setor que não requer insights para a solução de problemas. As máquinas fazem uso de algoritmos e procedimentos concatenados para que cheguem a resultados garantidos acerca de questões bem definidas, tais como o que ocorre com os resultados do Google, mas tais passos podem ser seguidos sem compreensão real alguma do motivo de [os resultados] serem o que são ou para onde nos levam. A beleza do experimento da sala chinesa consiste em nos tornar discernível a diferença entre a operar dos computadores e do da mente humana através de uma espécie de alegoria ou imagem que apela ao hemisfério direito do cérebro. [6]
No cenário proposto há, fora de uma sala, um falante de chinês; por outro lado, dentro dela, há um que nada sabe da língua – e é crucial que não o saiba – mas que possui um livro ou manual de instruções como as que se seguem: há uma escotilha na porta [da sala] através da qual o homem de fora [que entende chinês] pode enviar perguntas por escrito para o homem de dentro que, por sua vez, pode respondê-las após consultar seu manual, onde lemos uma série de afirmações condicionais do tipo “se… então….” de forma que caso o que pergunta diga X então é preciso responder Y. Mas nenhum dos caracteres [chineses] ali dispostos significa, de fato, algo para o homem que possui o livro. O homem de dentro da sala não entende o significado do que recebe e nem do que envia, nem das perguntas e nem das respostas: nesse sentido ele age precisamente como uma máquina, um dispositivo que segue regras e, assim, representa as funções de um computador. [7]
No cenário proposto, aos olhos do homem que fala chinês, as respostas advindas do homem dotado do livro de regras parecem ser inteligentes; ele lhe faz perguntas dotadas de significado inteligível e recebe respostas equivalentes advindas de dentro da sala. Assim, o falante de chinês, ao compreender corretamente as perguntas e as respostas, pode vir a crer que o homem de dentro também entende – mas, é claro, ele está equivocado. O cenário continua o mesmo caso troquemos o homem da sala por alguém que tivesse memorizado o livro de regras e/ou fosse capaz de responder em chinês fonético – o que significaria que ele aprendeu a repetir palavras em chinês e não que as entenda. [8]
A diferença entre entender ou não uma pergunta nos é acessível fenomenologicamente,[9] seja por não termos ouvido direito ou não entendido o que foi perguntado. Searle escolheu o idioma chinês como parte de seu experimento por conta de a maioria dos anglófonos desta língua não européia que, para além sua peculiaridade, depende de uma pronúncia bem precisa para que comunique corretamente seu significado, algo advindo de ser uma língua “tonal”[10] – algo bem complicado de se dominar. Caso uma palavra seja pronunciada com uma inflexão indevida, pode transformar-se em outra, e dado que o chinês e o inglês não possuem termos em comum, segue-se que o anglófono [comum] nada sabe de chinês. A situação mudaria caso fossem utilizados, por conta de certa abundância de palavras iguais ou semelhantes a ponto de possuírem significado dedutível – como, por exemplo, “water” [em inglês] e “wasser” em alemão – os idiomas indo-europeus. Neste cenário, o homem de dentro da sala não terá, de fato, idéia alguma e nem será capaz de adivinhar o que as palavras chinesas significam. Existe a [ínfima] possibilidade de, visto que o chinês é uma língua logográfica[11] e os caracteres chineses por vezes são imagens altamente estilizadas de coisas, como a de uma mulher varrendo, que pode ocorrer de o significado de algum caractere ser adivinhado; entretanto, dentro dos limites do experimento mental, temos que isso não ocorre e espera-se, assim, que seja possível discernir a diferença entre o homem de dentro e o homem de fora da sala.
É possível ainda iludir-se ao crer que os computadores (o homem na sala) são inteligentes e entendem coisas pois, por exemplo, ao perguntarmos algo ao Google, ele nos fornece uma lista de respostas possíveis das quais muitas são, na maioria dos casos, relevantes. Pode parecer, assim, que o Google/computador responde a pergunta por entende-la mas, mas na verdade, ainda que a resposta signifique algo só o significará para nós. O dado é que o computador apenas encontrou uma série de zeros e uns e respondeu também com zeros e uns igualmente sem sentido que, por conseguinte, iluminam uma série de pixels num monitor de forma que faça sentido para pessoas alfabetizadas. Mas isso nada significa para o computador. Ilusões de mesmo jaez funcionam pois seres humanos genuinamente inteligentes programaram o computador para que fornecesse respostas dotadas de significado para outros humanos e, de fato, programar um computador significa dotá-lo de um conjunto de algoritmos que não requerem, para seu funcionamento, reflexão, senso comum ou compreensão alguma.[12] É possível, claro, criar um algoritmo que escreva outros algoritmos, mas não é possível que um algoritmo teste a validade de outro – ou pelo menos não o tempo todo – e eis, assim, o problema da parada; a validade dos algoritmos, digo, de seus resultados enquanto precisos e verdadeiros, devem ser, em algum momento do processo, verificados com recursos não algorítmicos. Por exemplo: um método de execução de divisões longas é um algoritmo e, para que comprovemos sua legitimidade, seus resultados devem ser verificados; mas para que verifiquemos sua precisão é preciso olhar de fora e compará-lo à realidade: o clima realmente está fazendo o que o computador disse que está?
Por vezes trago para minhas aulas um boneco de plástico chamado “Yes Man” que, caso o liguemos e apertemos sua cabeça, ele pronunciará gravações cujas significações consistem sempre concordâncias: “quando você está certo, está certo; eu não poderia concordar mais com você; nossa, eu gostaria de ter pensado nisso; tenho certeza de que o que quer que você esteja pensando, estará correto”. O boneco é uma espécie de paródia de um tipo de funcionário que encontramos em empresas, a saber, aquele que agrada o chefe na esperança de conseguir uma promoção, e o trago para a classe como uma refutação da TMC – a tese de que os seres humanos são meros autômatos sem sentido algum, seguidores de algoritmos e, por conseguinte, máquinas; mas isso é antes o que a implicação pretende do que o que realmente nos define.
Certa feita mostrei o boneco a um colega professor enquanto explicava seu uso em aula, e ele me respondeu o seguinte: “mas as pessoas são assim; a diferença é que são mais complicadas”. A mesma pessoa certa vez me confessou que, de toda uma classe em que pessoas praticavam as técnicas utilizadas no aconselhamento rogeriano,[13] aquele em que se “espelha” o significado e o componente emocional do dito por alguém (“estou chateado por meu chefe não me entender” se torna “é frustrante não ser entendido”), ela havia sido a pior em descobrir o que outras pessoas sentiam ou que emoções expressavam verbalmente; talvez este problema tenha contribuído para que ela cresse que nós, seres humanos, somos apenas versões complexas do Yes Man.
O Yes Man é, literalmente, mecânico; ele não é um ser consciente, nada entende, e sua capacidade de falar inglês decorre de um verdadeiro anglófono ter tido sua voz gravada, posta num chip e implantada no boneco. A pessoa do exemplo certamente me disse que o ser dela consiste nisto [um autômato], o que significa que ela aparentemente experimenta a si precisamente como um Yes Man dotado de um repertório de gravações mais completo; segue-se, assim, que ela não é capaz de pensar e nem sentir, como um autômato destituído de significado, um brinquedo de plástico advindo de uma loja de bugigangas. Casos assim nos confirmam que pessoas com baixa inteligência emocional devem ser as últimas da fila quando se trata de perguntar sobre o que significa ser humano, como devemos viver nossas vidas ou mesmo como é ser humano. Caso tais pessoas sejam muito influentes em seu local de trabalho, então é de se esperar pela miséria desenfreada, dado que alguém que vê os outros como bonecos de plástico “mais complicados” decerto não é o tipo de pessoa com a qual a maioria de nós gostaria de trabalhar. A tese de que os seres humanos são semelhantes a brinquedos de plástico possui consequências deletérias. A pessoa que me fez tais comentários possuía o ar de alguém que poderia crer ser apropriado cortar a garganta de alguém enquanto discute um cardápio de almoço por cima do ombro; sua concepção de ser humano decerto não é consistente com alguém que possua valores morais bem fundamentados, e isso lhe fornece o comportamento quiçá assustador de alguém com o qual não devemos nos meter.
O Experimento da Sala Chinesa é um método bastante eficiente de apelar à compreensão intuitiva das pessoas sobre o que ocorre enquanto compreendemos. A diferença entre um falante de chinês que sabe o que diz – digo, que entende uma pergunta e a responde apropriadamente – não poderia diferir mais daquela que eu, que nada sei de chinês, daria caso fosse treinado para dizer algo em tal língua após ouvir certa sequência de palavras – pois para mim os sons não teriam, a rigor, sentido algum. Por vezes se diz que, ainda que o homem de dentro da sala não entenda chinês, “a sala” entenderia e, assim, o homem dotado do livro de regras “entenderia” chinês, ainda que não o faça sozinho, e o mesmo vale para o livro. Mas isso é nublar as concepções. A tese imagina que a compreensão é determinada apenas funcionalmente, mas não é assim que ocorre: os conceitos de significado e compreensão estão ligados.[14]
Caso uma pessoa siga corretamente as instruções, enquanto de olhos fechados, poderá produzir o origami de um animalzinho sem que o perceba; por conseguinte ela não entende o que está fazendo e, assim, o significado do feito. Uma pessoa que pensa e que conhece o resultado do que pretende poderá verificar se a figura do animal foi, de fato, bem executada. Afirmo mais uma vez que o frequentemente citado brilhantismo do experimento consiste no apelo à nossa compreensão intuitiva. Uma pessoa poderia responder corretamente a um problema matemático por o ter entendido ou por ter meramente seguido um algoritmo projetado por outro e, de fato, muitos alunos do ensino médio fazem isso o tempo todo, passando, muitas vezes, semestres inteiros resolvendo problemas de álgebra sem realmente entenderem nem o que é álgebra e nem para o que serve.
Normalmente é possível apontar a diferença entre quando entendemos algo e quando não, a fazemos isso fenomenologicamente, digo, sei que não entendo quando alguém resolve falar chinês comigo. Não é possível que definamos “compreensão”, mas podemos experimentar perfeitamente a diferença entre sua presença e sua ausência – esta envolvendo, por sua vez, falibilidade epistêmica. É inteiramente possível que imaginemos que tenhamos entendido algo quando não, mas então estaríamos ligando com casos excepcionais, dado que normalmente acertamos ao determinarmos se compreendemos ou não algo e, caso necessário, é possível que nos façamos algumas perguntas para que se verifique se estamos ou não corretos. Caso nós, humanos, estivéssemos sempre no escuro, sem certeza de que entendemos ou não o que se passa, o estado de perplexidade nos levaria constantemente ao erro e à destruição.
O hemisfério esquerdo do cérebro ama a clareza e a distinção e, uma vez que tenhamos compreendido algo, os resultados podem ser submetidos a ele para análise; mas ambas as características suprimem o humor, a metáfora, os símbolos, a poesia e a compreensão intuitiva de significados emocionais. Para algumas pessoas dotadas de baixa inteligência emocional, a fenomenologia da compreensão e muitos outros temas relacionados a ela, como intuições, podem permanecer opacos, uma vez que elas não podem contrastar sua experiência subjetiva com o que ocorre no experimento da sala chinesa, e é provável que seu sentido lhes passe despercebido. Um argumento não pode apelar a intuições perceptivas caso elas sejam defeituosas.[15]
A mera possibilidade de que imaginemos que um computador nos entenda, em vez de compreendê-lo como um dispositivo mecânico que serve à função de intermediário entre nós e seus programadores, é engajar-se em antropomorfismo. Talvez possamos comparar tal equívoco às limitações que o daltonismo impõe à apreciação da arte pictórica ou da surdez tonal[16] à música. Em geral apreciamos o inovador e inesperado em matéria de filosofia e psicologia, dado que verdades óbvias tendem a ser abanais. Mas também é regra geral nestas áreas que, quanto mais surpreendentes forem os resultados, menores serão as chances de serem verdadeiros; deve ser por isso que houve uma crise de replicação na psicologia, com algo como 70% dos trabalhos publicados terem resultados irreprodutíveis. Quando alguém como Freud afirma que os sonhos sejam exemplos de realização de desejos, a afirmação soa tão estúpida e contraditória quando comparada à experiência cotidiana que isso a eleva acima da azáfama mundana e captura nossa atenção. Muitas das afirmações de Sam Harris possuem tantas contradições, chegando a soar como indicativo de extensos danos cerebrais, que causam o mesmo alarde de um circo que acaba de chegar na cidade. A verdade não é, em geral, tão barulhenta quanto a falsidade.
Caso o leitor tenha aprendido algo com nossos textos, favor considerar uma doação, via PIX [real] ou Lightning Network [Bitcoin], no código QR correspondente. Sua contribuição nos motiva a continuar fornecendo filosofia de forma simples, mas não simplificada.
Recomendações Bibliográficas
- Byung-Chul Han — A Sociedade do Cansaço
- Edward Feser — Filosofia da Mente: Um Guia para Iniciantes
- Eric Matthews — Mente: Conceitos Chave em Filosofia
- Ernest Nagel &James R. Newman — A Prova de Gödel
- John R. Searle — A Redescoberta da Mente
- John R. Searle — Expressão e Significado
- John R. Searle — Intencionalidade
- John R. Searle — Mente, Cérebro e Ciência
Notas:
[1] No artigo Minds, brains, and programs [N.T.]
[2] No original, CTM: Computer Theory of Mind. [N.T]
[3] Cocks refere-se ao primeiro teorema da incompletude de Gödel [N.T.]
[4] O problema da parada diz, grosso modo, que computadores com memória infinita não conseguem determinar onde um programa termina. [N.T]
[5] Chamada de Pascalina. Foi a primeira calculadora do mundo. [N.T.]
[6] A imagem divisão simétrica do cérebro é útil mas não tão exata. De qualquer forma, para os fins propostos no texto, o hemisfério direito é tomado como “intuitivo” e o hemisfério esquerdo como “lógico”. [N.T.]
[7] A estrutura do argumento funciona como se o homem da sala agisse como uma calculadora; quando apertamos os botões ou giramos as engrenagens de uma calculadora ela mostra tal ou qual número pois a engrenagem ou o circuito foi construído para que assim o fosse. Quando usamos pisamos numa gangorra o outro lado sobe pois a construímos para ser assim, mas nem a gangorra e nem a calculadora sabem o que estão fazendo. No caso, o homem da sala pode responder um “oi, tudo bem?” com um “sim, e com você?” exatamente como um programa de conversação o faria, a saber, fornecendo uma resposta a uma pergunta mediante a execução de um algoritmo. Mesmo que multiplicássemos a capacidade de cálculo ao infinito – como através do uso recente de machine learning – o dado é que um algoritmo infinitamente potente pode responder infinitamente melhor mas, ainda assim, o fará sem consciência alguma. O Deep Blue nunca saberá que ganhou de Gary Kasparov, mas o segundo sabe que perdeu. [N.T.]
[8] Eis, em suma, o funcionamento de um bot de conversação, mas também serve de resposta à Objeção da Mente Virtual, que consiste no seguinte: a execução do programa criaria sua compreensão. Mas, como vemos no exemplo do bot de conversação ou no bot da Microsoft que se tornou totalitário após algumas horas no Twitter, isso é impossível. Ter todos os códigos na cabeça não cria sua compreensão. [N.T.]
[9] Cocks usa “fenomenologicamente” com o sentido de “intuição direta” ou de “certeza imediata”. [N.T.]
[10] Podemos conferir como a língua funciona aqui. [N.T.]
[11] Cocks diz “pictográfica”, mas o termo é comumente utilizado para se referir a escritas neolíticas; sendo assim, optou-se pelo termo em voga, a saber, logográfico – de logos + graphos, “escrita desenhada”. [N.T.]
[12] É assim que funciona, por exemplo, o famoso programa “Olá mundo”: dada certa ação por parte do usuário, o programa exibe a mensagem “olá mundo”. Ao visualizarmos seu código percebemos como nada há de inteligente ali e, por exemplo, o resultado seria o mesmo caso uma máquina totalmente analógica exibisse a mensagem “olá mundo” após o giro de algumas engrenagens. [N.T.]
[13] Terapia centrada na pessoa desenvolvida por Carl Rogers. [N.T.]
[14] System reply ou Resposta dos Sistemas. A objeção consiste em dizer que o que entende não é um mero componente mas o sistema todo; da mesma forma que um computador nada processa caso lhe falte uma CPU e uma CPU não funciona sem o resto das peças, um homem não pensa sem neurônios e o neurônio não funciona sozinho. Sendo assim, o que entende é o sistema completo. A objeção falha ao não atentar ao ponto fulcral do argumento, a saber, que não importa o quão complexo seja o sistema ou quão sofisticado o livro de regras, o dado é que o programa não sabe o que responde; ele apenas segue regras predeterminadas. [N.T.]
[15] Talvez Cocks esteja se referindo a um fenômeno análogo à depreciação da razão em cálculo apontada por Byung-Chul Han em A Sociedade do Cansaço p.56: ““Possivelmente o computador conte de maneira mais rápida que o cérebro humano, e sem repulsa acolhe uma imensidão de dados, porque está livre de toda e qualquer alteridade. É uma máquina positiva. Justo por causa de sua autorrelação autista, por causa da falta de natividade, o idiot savant gera aqueles desempenhos que só seria capaz de realizar uma máquina computacional. No empuxo daquela positivação geral do mundo, tanto o homem quanto a sociedade se transformam numa máquina de desempenho autista.” [N.T.]
[16] Espécie de deficiência auditiva que impede que a pessoa distinga tons semelhantes, ainda que consigam perceber a diferença entre aqueles radicalmente diferentes. [N.T.]
Artigo gentilmente concedido por Voegelinview.com. Original aqui.
Do mesmo autor:
O Niilismo Epistêmico Permite Apenas a Força Bruta
O Status Metafísico da Preferência
Posts Relacionados
-
Disputas Metafísicas
Sobre a Natureza da Filosofia Primeira ou Metafísica Por Francisco Suárez S.J. Tradução,…
-
Niilismo, Ética e o Dilema do Bonde
Por Richard Cocks Tradução de Tibério Cláudio de Freitas Notas e comentários de Helkein Filosofia…
-
O Status Metafísico da Preferência
Em Defesa do Livre Arbítrio Por Richard Cocks Tradução, Notas e Comentários de Helkein…