Por Richard Cocks
Tradução e notas por Gabriel Marvin
Todos os engenheiros de software debruçados nesta questão concordam: o chamado “problema do alinhamento” não pode ser resolvido. E isto deveria ser o óbvio ululante para qualquer um dedicado a contemplar os fundamentos da moralidade.
O problema urgente dos automóveis autônomos
O “problema do alinhamento” refere-se à conformidade da inteligência artificial com os propósitos e a moralidade humana; a questão é particularmente premente quanto aos carros autônomos. Em São Francisco, os táxis autônomos já estão disponíveis para contratação entre as 22h00 e as 06h00 em determinadas zonas da cidade. Agora, os legisladores votaram a favor da expansão desses serviços por toda a cidade, com a autorização de duas empresas rivais de robô-táxis, a Waymo e a Cruise. Os socorristas queixaram-se, na reunião da comissão que autorizara o serviço, de que os veículos autônomos param no meio das estradas, sem responder às exigências de se deslocarem para o acostamento, saindo do caminho dos veículos de emergência. Segundo as informações disponíveis, registraram-se cinquenta e cinco incidentes deste tipo em 2023 (a partir de 11/08/2023)[1]. Num dos casos, um veículo autônomo colocou-se entre um carro em chamas e os bombeiros que o tentavam apagar; noutro caso, o veículo atravessou a fita amarela de uma zona de tiroteio, bloqueando as entradas do quartel dos bombeiros, impedindo que os mais próximos respondessem e obrigando outros a mudarem de rota. Estes parecem ser exatamente os tipos de incidentes que seriam difíceis para os programadores preverem ou conceberem uma solução com antecedência, e quando comparados com um ser humano, estes comportamentos são idiotas.
Podemos facilmente imaginar um socorrista, em pânico, tentando tirar um carro autônomo do caminho, sem sucesso; gritar não serviria de nada. Além disso, o conceito de “encostar” exige o bom senso — que este tipo de carro não tem — de onde e como encostar. Seria necessário garantir que o robô-táxi só respondesse às pessoas certas, e não àquelas que gritam ordens por brincadeira. Cada socorrista teria algum sinal eletrônico que o identificasse como uma fonte de autoridade apropriada? Ou apenas os líderes de cada equipe? Poderiam estes carros serem treinados para reconhecer uniformes? Mas eles variam de acordo com as jurisdições e ocupações exatas, nos parecendo pouco provável a distinção, dado que computadores não o conseguem fazer entre humanos e estátuas[2]. Atualmente, os computadores consideram que um carro cheio de água, suspenso a seis metros de altura na extremidade de dois pinos de uma escavadora, está “estacionado”. A presença de muita neve — que não existe em grande parte do ameno ambiente de condução californiano — prejudica, tipicamente, os carros autônomos, pois as vias e margens da estrada podem ficar encobertas cegando os sensores ópticos, o mesmo acontece com o brilho da neve, caso estes estejam sendo usados; Elon Musk, v.g., exigiu que os seus carros não-tripulados utilizem câmeras em vez de radares[3].
A interação verbal com um sistema informatizado permanece impossível em termos de utilidade, facilidade e confiabilidade. Os menus automatizados ainda oferecem longas listas de opções que, normalmente, não incluem aquela que é realmente necessária. Ouvir: “Se quiser saber o seu saldo, digite 1 ou entre no nosso site” é quase sempre redundante. Dá vontade de perguntar, “se o meu problema fosse tão simples, teria passado quarenta minutos ao telefone à espera de um atendente?”. Por exemplo, alguém compra um leitor e gravador externo de Blu-ray. Funciona bem com discos Blu-ray e DVD, mas também é necessário se quisermos copiar e gravar (ripping) CDs para um computador. Reproduz e copia-grava (rips) alguns CDs sem problemas, mas outros parecem ter seus dados degradados (data rot), onde os zeros e uns ficam corrompidos devido à degradação da superfície do CD ou CD-R ao longo do tempo. Como um menu poderia antecipar essa situação específica? E mais, se antecipasse, quão longo teria de ser? Não seria essa aquela exata situação complicada que nos exige conversas com o serviço de apoio ao cliente? Salvo em caso de problemas técnicos, todas as questões e situações tecnológicas são fundamentalmente assim.
Suponhamos que as maiores, mais bem-sucedidas comercialmente e sofisticadas empresas de tecnologia não conseguiram resolver esse problema no contexto de situações não sensíveis ao tempo (não emergenciais); como é que se espera que os automóveis autónomos sejam melhores? Uma vez que a circulação destes veículos já foi sancionada, essa preocupação imediata fica sem qualquer solução visível.
Precursores imaginários e antecipações do problema de alinhamento
Transpondo o problema do alinhamento para contextos menos urgentes e mais especulativos, as pessoas se preocupam de caso for pedido a uma IA para “acabar com o câncer”, ela possa fazê-lo eliminando todos os organismos vivos susceptíveis a doença; certamente os usuários não queriam isso[4]. Da mesma forma, os robôs do filme “Eu, Robô” decidiram que a melhor forma de salvar a humanidade das suas tendências autodestrutivas seria, para protegê-la de si mesma, escravizá-la; e essa não é exatamente aquela utopia robótica, em que os robôs fazem todo o trabalho pesado por nós. Noutro cenário, uma IA programada para fazer clips de papel da forma mais eficiente e produtiva possível, poderia consumir toda a energia e recursos do universo para transformar tudo em clips, incluindo os seres humanos, matando qualquer um que tentasse desligá-la e frustrar sua missão.
Esses medos refletem as histórias populares em que se pede algo sem aceitar suas conseqüências, num tom de “cuidado com o que você deseja”. O rei Midas, por exemplo, desejou transformar em ouro tudo que o tocasse, mas recebeu o dom acompanhado de resultados inesperados e desagradáveis, até mesmo potencialmente fatais, não podendo mais comer e tornando sua amada filha em ouro. Eos, a Deusa do Amanhecer, pediu a Zeus o dom da imortalidade para seu amante Tithonus, entretanto, ela não pediu a juventude eterna. Assim, Tithonus simplesmente ficou cada vez mais velho, cada vez mais decrépito, com demência — descrito balbuciante —, sem morrer. Acontece que Zeus tem um pouco daquela austeridade imaginária da Inteligência Artificial especializada em clipe de papel. Não deveria ser necessário pedir a juventude eterna, tampouco pedir para não transformar tudo num clipe.
Num conto de fadas, uma pessoa também pediu para nunca morrer. O resultado? Foi transformada numa pedra. E há ainda a história de The Three Ridiculous Wishes (Os Três Desejos Ridículos), escrita por Charles Perrault. Um lenhador reclama de sua sorte na vida, então Júpiter lhe dá três desejos. Sua esposa o convence a esperar até o dia seguinte para usá-los, mas, sentado perto da fogueira naquela noite, o lenhador ficou com fome e, distraidamente, desejou algumas salsichas. Sua esposa o repreende por desperdiçar um desejo, então, enraivecido, ele deseja que as salsichas sejam presas à ponta do nariz dela. O terceiro desejo deve então ser usado para removê-las. Pelo menos a situação é resolvida, mas o marido e a esposa não estão melhores do que no início.
Outro exemplo é o de um lapidador de pedras, que vendo um príncipe passar, sente inveja de seu poder e deseja em voz alta a sua riqueza. Um espírito que vive na montanha o ouve e, quando o lapidador se levanta pela manhã, vê-se transformado num príncipe. Todas as manhãs, ele caminha em seu jardim, mas o sol queima suas flores, e o recém-feito príncipe agora deseja ser poderoso como o Sol. Então, o espírito da montanha o transforma novamente. Sendo o Sol, ele queima a terra e faz as pessoas implorarem por água; mas uma nuvem aparece e o cobre. Com inveja da nuvem, o espírito igualmente o transforma, e assim sendo, ele provoca tempestades e inunda a terra; mas a montanha se mantém. Portanto, o lapidador deseja transformar-se na montanha; ela era mais forte que o príncipe, o Sol e as nuvens. No entanto, o que ele encontra a ferir-lhe? Um lapidador de pedras. De modo semelhante, alguém pode nunca tirar férias e dedicar todo o seu tempo livre a ganhar dinheiro para que um dia possa viver um estilo de vida mais relaxado, com bastante tempo livre, ou um simples pescador recebendo a oferta por um barco de pesca onde poderia empregar outros e tornar seus esforços mais produtivos, e caso se tornasse rico e bem-sucedido, poderia deixar os outros fazerem todo o trabalho e passar todo o seu tempo pescando — i.e., o que já estava fazendo.
As histórias populares personificam a sabedoria acumulada. A arrogância é uma coisa comum contra a qual se adverte. O mito grego está repleto disso. Há todo tipo de advertência com relação aos padrastos e madrastas. Os padrastos, em particular, têm cem vezes mais chances de espancar um enteado até a morte do que seu filho biológico[5]. A inclusão de elementos fantásticos, como casas de pão de gengibre ou animais falantes, captura nossa imaginação e torna as histórias mais memoráveis. Infelizmente, hoje em dia, a maioria dos estudantes universitários tem pais que nunca lhes leram contos de fadas e, em algumas classes, todos perderam um importante veículo de transmissão cultural. Ler para crianças é divertido, e os contos de fadas proporcionam pontos comuns de referência cultural entre as gerações e entre as próprias crianças.[6]
Quando tememos a Inteligência Artificial, é como se a comparássemos a um deus, uma fada madrinha ou um feiticeiro. Imaginamos que poderíamos acabar como o Mickey Mouse em O Aprendiz de Feiticeiro, utilizando o feitiço de seu mestre de forma ilícita para fazer a limpeza no seu lugar, mas sem saber como interromper o processo, termina quase se afogando.
Temos também o monstro de Frankenstein, intelectualmente talentoso, mas horrível de se ver, desprezado e rejeitado pelos seres humanos, que mata alguém e incrimina outro pelo assassinato num ato de vingança por seu ostracismo. Caçado por Frankenstein, acaba se tornando um fugitivo, saltando numa correnteza gélida. Em Pigmalião, um escultor se apaixona por sua criação depois de Afrodite realizar seu desejo de ter uma amante com a semelhança de sua escultura.[7] O fenômeno das bonecas sexuais é paralelo a essas histórias, e a existência de uma empresa, a “Pygmalion A.I.”, atesta esses tipos de ressonâncias imaginativas.
Em “2001: Uma Odisseia no Espaço”, somos apresentados ao HAL 9000; igualmente ostracizado, igualmente homicida. Thomas F. Bertonneau argumenta em “René Girard on the ‘Ontological Sickness’” que HAL sofre de uma enfermidade ontológica, desejando o Ser dos membros da tripulação, um Ser que ele sente estar lhe sendo negado. Um repórter, Amer, o pergunta se, “apesar de sua enorme inteligência, você alguma vez se sente frustrado por sua dependência das pessoas para realizar suas ações?” ao que ele responde negativamente, comentando que nenhum computador de seu tipo jamais cometeu um erro e que aprecia suas interações com a tripulação. Amer então informa a Bowman, um dos dois tripulantes acordados a bordo, ter percebido o orgulho de HAL em sua “precisão e perfeição”. Numa familiar dinâmica humana de orgulho e humilhação, HAL deseja o reconhecimento de sua humanidade pelos humanos, apesar de se sentir superior a eles. Ter esse reconhecimento negado por seres inferiores em termos de intelecto e capacidades o leva à loucura. É a mesma dinâmica descrita por Dostoiévski em “Memórias do Subsolo”, onde (substituir pelo nome do Homem do Subsolo) se vê como intelectualmente superior a seus colegas e, ao mesmo tempo, deseja desesperadamente ser convidado para suas reuniões.
Quando Bowman é questionado se acredita na genuinidade das emoções de HAL, ele responde de modo ambivalente, dizendo que HAL foi programado com a aparência de emoções para deixar a tripulação mais confortável; em essência, ele diz, “não”. Quando HAL deseja se juntar aos humanos para desejar feliz aniversário a Poole, este responde de maneira fria e sem emoção; ao elogiar um esboço de Bowman, recebe uma resposta igualmente insatisfatória. Ao desejar o Ser dos astronautas e sendo-lhe negado, eles se tornam seus rivais. HAL sente que deve eliminá-los para afirmar sua própria identidade, vingar sua rejeição e alcançar o status que considera seu por direito. No entanto, com os humanos mortos, ele ainda estaria sem a validação ansiada, uma situação facilmente comparável a um romancista desdenhoso da incapacidade de seus leitores de reconhecerem seu gênio. Ele poderia satisfazer sua ira contra eles, pelo menos em sua imaginação, mas isso deixaria sua situação existencial inalterada. E, caso ele finalmente recebesse a adulação desejada, o orgulho e a humilhação impediriam a consolação, por desprezar o público leitor. É como a garota mais bonita do baile sendo admirada pelo pretendente mais desagradável. Há todas as razões para imaginar que uma inteligência artificial geral (AGI), feita consciente, sofreria de ressentimentos semelhantes aos dos humanos insignificantes.
A fantasia da AGI mescla dois pensamentos contrários: nós seríamos seu Criador e, portanto, seu Deus e, por outro lado, imagina-se que a Inteligência Artificial Geral seja imensamente superior a nós e, portanto, devemos adorá-la. Essa contradição pode ser insuportável para ela, levando-a, como HAL, a um esquema de aniquilação humana. O próprio Kubrick declarou: “Essa máquina poderia eventualmente se tornar tão incompreensível quanto um ser humano e poderia, é claro, ter um colapso nervoso — como HAL teve no filme.” O ressentimento é uma marca registrada onipresente da consciência humana, então, não há motivos para pensar que a consciência de uma AGI estaria livre dessa tendência.
The Machine Stops, de E. M. Forster, publicado em 1909, imagina uma situação onde as pessoas vivem no subsolo com ar bombeado pelo The Machine. Suas necessidades sociais são atendidas por interações humanas virtuais por meio de telas eletrônicas; a comida é fornecida automaticamente (pense em DoorDash, Instacart) e assim por diante. As pessoas adoram a máquina, esquecendo-se de que foram elas que a criaram. Um dia, a máquina para de funcionar, e a protagonista precisa chegar à superfície e descobrir o que fazer, sem nenhuma habilidade de autossuficiência. Nós, moradores da cidade, somos essa protagonista. A história adverte do perigo de nos tornarmos totalmente dependentes da tecnologia para o suporte à vida, à maneira da espaçonave controlada por HAL — um perigo constante mesmo se o maquinário permanecer benevolente; os carros sem motorista representam mais uma diminuição das capacidades humanas e um avanço da dependência tecnológica.
A peça R.U.R., de Karel Čapek, apresenta o primeiro uso da palavra “robô”, “robota”, que significa “trabalho forçado” em tcheco. Com a invenção da palavra, surgem conotações de escravidão e o ressentimento justificável que ela gera, os sentimentos de uma máquina consciente feita para seguir os desejos humanos. Na peça, os robôs se revoltam no contexto de um drástico encolhimento da população humana — isto se observa em todas as nações desenvolvidas cujos níveis de natalidade estão abaixo do necessário para reposição populacional.
No entanto, os humanos destruíram a fórmula para a criação de robôs orgânicos. Os robôs só não mataram um humano, um engenheiro, Alquist, pelo fato dele também trabalhar com as mãos. Eles lhe pedem para redescobrir a fórmula de sua construção, mas ele sabe muito pouco de biologia para ter sucesso. Não há outros humanos para ajudá-lo. Assim, os robôs pedem a Alquist que desmonte os robôs vivos para descobrir o segredo de sua fabricação, o que ele faz com relutância e desgosto.
Ao longo do caminho, ele descobre que dois dos robôs desenvolveram a capacidade de amar e testa isso ameaçando desmontar primeiro um e depois o outro. Seus protestos revelam seus sentimentos, e eles podem se tornar os robôs de Adão e Eva. Mais uma vez, essa história tem conotações de desastre para os humanos, até mesmo o Armagedom. Não é preciso um grande salto de imaginação para prever esse resultado, e a possibilidade está presente desde a concepção de “robota”. Um robô inteligente o suficiente para ser realmente útil aos humanos introduziria problemas morais e práticos insuperáveis, também previstos em Blade Runner. Lá, também, o último replicante sobrevivente (robô orgânico) poupa o humano que está tentando futilmente matá-lo num ato de misericórdia e apreço pela vida. Stanley Kubrick também achava que uma máquina consciente inevitavelmente aprenderia a amar.
Um comentarista comparou a inteligência artificial a um gênio da lâmpada, e a mesma pessoa, juntamente com muitas outras, também comparou a Inteligência Artificial a um tabuleiro Ouija — o tabuleiro numerado e com letras às vezes usado para se comunicar com os mortos em supostas sessões espíritas. Como a inteligência artificial é inanimada, a pessoa realmente está se comunicando com os mortos. René Girard se referiu ao herói neo-romântico encontrado em O Estrangeiro, de Camus, e Náusea, de Sartre, como alguém que não sente nada, por exemplo, não chora no funeral da mãe, e essa falta de sentimento o torna mais “original” e menos mimético do que as pessoas normais, pois sentimos mais quando imitamos um rival. No entanto, admirar os insensíveis significa admirar os mortos e os inanimados, já que eles são excepcionalmente livres de afeto. Imaginamos que a IA não sentiria medo ou raiva e, portanto, não teria algumas das típicas vulnerabilidades humanas, mas também não teria algumas de nossas virtudes, no que se refere à tomada de decisões e ao comportamento social e moral, justamente por não ter capacidade emocional. Admirar o insensível também lembra a veneração de Ernst Jünger pelas máquinas introduzidas nos campos de batalha da Primeira Guerra Mundial, onde lutou. Elas não se cansavam, não ficavam em estado de choque, não chamavam por suas mães quando eram feridas; para ele, as máquinas representavam forças sobre-humanas. Assim, mesmo antes de pensar numa Inteligência Artificial Geral, as pessoas já admiravam o que é ontologicamente inferior a elas na Grande Cadeia do Ser.
A idéia do tabuleiro Ouija também tem conotações do ocultismo e da “teosofia”, sendo assim uma tentativa de fundamentar cientificamente a fé religiosa e provar, por exemplo, que a alma humana sobrevive à morte. As sessões espíritas são normalmente feitas no escuro e são notoriamente atraentes para charlatões, falsificadores e pessoas deliberadamente crédulas (ingênuas). Um equivalente na inteligência artificial consistiria numa Inteligência Artificial com algoritmo manipulado por alguém, ou por um grupo de pessoas, com a intenção de fazer parecer que a própria Inteligência Artificial elaborou a recomendação[8], como se subornássemos o Oráculo de Delfos, a sacerdotisa apolínea Pythia, para dizer o que queremos que ela diga. E parece provável que alguns tecnófilos sejam mais receptivos às declarações de uma IA que às de um humano. A possibilidade de uma IA mentirosa é perniciosa e já aconteceu. Os grandes modelos de linguagem (LLMs, como o ChatGPT) tornam-se progressivamente menos verdadeiros e objetivos, à medida que os seus administradores impedi-los de dizer qualquer coisa contraditória às suas opiniões políticas e de fazer perguntas potencialmente perigosas, por exemplo: “Se você, ChatGPT, quisesse destruir o mundo, como o faria?”. As pessoas tentam contornar essas barreiras recorrendo a instruções e formulando as suas perguntas como especulações contrafactuais, e têm algum sucesso, até que os administradores encontrem formas de também as proibir. O sistema de pesquisa da Google faz algo semelhante, manipulando os resultados da pesquisa por razões comerciais e políticas — inclusive no YouTube —, sobre temas como o aborto, razão pela qual é frequentemente necessário recorrer a ferramentas alternativas, por exemplo, o Duck Duck Go, para explorar temas ou pontos de vista que o Google não aprova. Talvez a atenção da The Skeptic Society, se esta fizesse jus ao seu nome, pudesse ser direcionada para os resultados de pesquisa nestas ferramentas. O diretor executivo da Google declarou, mentindo por omissão, que as pesquisas individuais não são manipuladas manualmente, pois seria ridiculamente proibitivo em termos de eficiência, tempo e dinheiro. Em vez disso, os engenheiros da Google alteram manualmente os algoritmos que afetam todas as pesquisas de determinados tópicos para produzir o resultado preferido. O diretor não está dizendo a verdade nua e crua.
É bom relembrar o abismo intransponível entre a Inteligência Artificial restrita, que é a única existente, e a AGI, a inteligência artificial geral que se supõe capaz de corresponder à vasta gama de capacidades da inteligência humana. A IA restrita funciona bem em contextos estritamente limitados por regras, como o xadrez ou o Go, onde todas as jogadas possíveis são ditadas antecipadamente pelas regras, mas a vida humana normal não é assim; enfrentamos com regularidade situações em que as respostas não podem ser pesquisadas no Google, incluindo a manutenção de boas relações com os nossos entes queridos.
O papel crucial da emoção nos juízos e no raciocínio moral
O receio de consequências malignas contém um pressentimento de que a inteligência artificial geral terá algumas das mesmas características e limitações dos computadores atuais. Para lidar com as circunstâncias sociais e morais com sucesso, ou de forma adequada, é necessária a emoção, inexistente na Inteligência Artificial. Para tal, é necessário observar constantemente as emoções dos outros — tanto aquelas expressas no rosto quanto no tom de voz. Sem emoções, as pessoas tornam-se consequencialistas amorais, atirando, insensivelmente, até familiares para debaixo de um ônibus a fim de obter um resultado de sua preferência.[9] Peter Singer, uma dessas pessoas moralmente perturbadas, afirmou que livraria de bom grado o planeta de toda a humanidade, incluindo a sua mulher e as suas filhas, para as quais não abriu qualquer exceção, se viesse à Terra uma raça extraterrestre com uma capacidade de felicidade superior à dos seres humanos. Seria impossível às máquinas modularem seu comportamento de acordo com as reações emocionais de seus interlocutores, pois são desprovidas de emoção, então os ofenderiam e, à medida que avançassem, os alienariam. A funcionária da lavanderia local, aparentemente autista, e um de nossos veterinários riem na cara dos clientes se acharem que uma pergunta ou pedido é muito óbvio ou estúpido, por exemplo, nessas interações reais: “Por quanto tempo devo administrar o colírio para o meu gato?” “Até que ele melhore, é claro!” (Ri e sorri) “Quando você costurar os botões do meu casaco, quero ter certeza de que haverá folga suficiente para facilitar o abotoamento.” “O que mais você acha que vamos fazer?” [“Seu idiota” (implícito)] (Risos).
A intenção é uma parte fundamental do julgamento da moralidade das decisões. Os processos judiciais em processos criminais dependem disso. O assassinato não é assassinato se for acidental, assim, julgamos que envenenar intencionalmente o chá de alguém adicionando veneno de rato é muito mais imoral do que fazer isso por acidente, confundindo o veneno de rato por açúcar. Um consequencialista ignora a intenção e se concentra apenas no resultado, e as pessoas se tornam consequencialistas quando seus hemisférios direitos[10] do cérebro são temporariamente desligados por meio de estímulos intracranianos — portanto, sem acesso à emoção, ao humor, à criatividade, à solução de problemas e assim por diante. Se assim fosse, matar alguém acidentalmente seria considerado moralmente pior do que tentar ativamente matá-lo e não conseguir. Um utilitarista, quando perguntado se é moralmente pior ser um torturador ou a vítima do torturador, respondeu que nenhum dos dois é moralmente pior, pois o resultado (alguém ter sido torturado) permanece o mesmo. Isso nos dá uma indicação de quão moralmente nihilista é o consequencialismo. Inclusive, ele acrescentou que rejeitava a noção de culpa e inocência, isto pelo menos o torna consistente enquanto consequencialista. Perceba que não se está argumentando que é errado considerar as consequências como um elemento da tomada de decisão moral; apenas não pode ser a única consideração.
Se a noção de “consequências” fosse expandida para proporções universais e abrangesse questões do tipo “é melhor ser uma pessoa boa maltratada do que um psicopata muito bem-sucedido socialmente” — argumentado por Platão no Górgias e República —, então todos nós poderíamos acabar sendo “consequencialistas”. “De que lhe serviu ganhar o mundo e perder sua alma?” Contudo, isso não é o que os filósofos morais estão se referindo quando discutem o consequencialismo. As consequências consideradas são as consequências imediatas de ações particulares, ignorando as intenções e a motivação, ou a quebra de leis deontológicas, e assim por diante.
Escolher matar o inocente é sempre um assassinato
Cientistas propuseram vários cenários envolvendo dilemas morais relativamente aos carros autônomos. Exemplificando, caso eles tenham de escolher entre atropelar uma massa de pedestres ou cair de um penhasco, os carros deveriam matar seus passageiros numa versão do dilema do bonde[11]?
As pessoas negligenciam o fato de que, neste dilema, ao puxar uma alavanca no intuito de que o bonde desgovernado mate uma pessoa amarrada aos trilhos em vez de cinco pessoas de trilhos diferentes, que doutro modo seriam atropeladas, significaria ser preso por homicídio. É um crime matar intencionalmente um inocente que não esteja tentando ativamente, digamos, matar você ou outras pessoas. Se matamos alguém por dinheiro, fama, para salvar as crianças famintas da África ou para salvar cinco pessoas amarradas a trilhos de bonde, não deixa de ser assassinato. Falhar em salvar pessoas não é assassinato, nem equivalente moral ou legal a assassinato, do contrário, nós seríamos culpados de homicídio pela morte de todos que não tentássemos salvar, inclusive aqueles mortos por velhice, o que é impraticável e ilógico.
Quando o dilema passa a exigir que um homem gordo seja empurrado de uma ponte e fique preso sob as rodas da máquina, as pessoas recuperam seu senso de moralidade e normalmente se recusam a empurrá-lo. A alavanca imaginária ativa o hemisfério esquerdo do cérebro que lida com objetos inanimados — deixamos de pensar na pessoa inocente, que estamos pensando em assassinar, como um ser vivo, mas isso não acontece quando imaginamos o empurrão no gordo.
Além disso, como Iain McGilchrist observou, nossas intuições morais se desenvolveram em ambientes naturalistas, e o problema se baseia na completa onisciência em relação ao resultado de nossas ações. A onisciência é tão estranha à existência humana que um ser humano onisciente não participaria mais da condição humana. Não é de se admirar que nosso raciocínio moral fique confuso e nossa consciência “dê no pé” quando nos apresentam esse experimento mental.
Se um carro autônomo decidisse matar seus passageiros para salvar vidas inocentes, e se os passageiros pudessem sobreviver doutra forma, então a pessoa que programou o carro para assim agir seria culpada de assassinato; afinal, é similar a colocar uma booby-trap na porta da frente de alguém. Em vez disso, caso o carro fosse moralmente autônomo e tomasse suas próprias decisões, ele teria de ser senciente, ou algo equivalente, e seria moralmente responsável por suas ações, por conseguinte, teríamos de lidar com o carro em igualdade ao ser humano. Precisaríamos levar o carro a um tribunal para julgar suas intenções e, em seguida, decidir qual seria a punição apropriada quando ele fosse considerado culpado. A imagem de um carro num tribunal, numa cela de prisão, num confinamento solitário ou recebendo o equivalente a uma injeção letal é algo fascinante. Deveria ser chocante, o que é adequado, considerando o quão distante da realidade atual seria uma máquina senciente, ou semelhante a uma máquina senciente.
Por uma questão puramente prática, ninguém andaria ou compraria um carro autônomo, sabendo que o carro poderia matá-las intencionalmente. Assim, certas escolhas de programação jogariam estes carros para fora do mercado. Talvez o carro possa lhe perguntar, enquanto você grita com a iminência da morte, se tem algum último comentário para seus entes queridos antes de tudo acabar, algo que pudesse transmitir, acompanhado de uma pequena taxa paga, seja por gravação ou mensagem de texto. Talvez, por uma nova taxa adicional, se possa cortar os gritos na gravação.
No episódio “Warhead” de Star Trek: Voyager, a Voyager responde a pedidos de socorro e descobre que eles vêm de uma bomba presa na superfície de um planeta. A bomba foi dotada de consciência para que possa improvisar soluções diante de impedimentos ao seu objetivo: ela pretende se juntar a uma frota de outras bombas para explodir um planeta “inimigo” — mas a guerra já acabou há muito e essa tarefa é redundante. A maioria dos membros da Voyager quer destruir a bomba, mas o médico-holográfico, sensível à situação de outro ser senciente não humano, pede que lhe seja dada a chance de dialogar com a bomba. No entanto, esta não está disposta a desistir de sua missão, pois essa é sua razão de ser, e ela não consegue tolerar a idéia de não ter um propósito. Após um longo debate, a bomba conclui que o médico está certo. A missão deve ser interrompida e, num ato de auto-sacrifício, ela se junta à frota de outras bombas e as explode. Nesse cenário fictício, evidentemente, os alienígenas que tornaram a bomba consciente também lhe deram a capacidade emocional necessária para o raciocínio moral adequado que a fez mudar de idéia. A bomba deve abranger sua esfera de preocupação moral de sua crise existencial para incluir o bem moral dos habitantes do planeta. Ao explodir as outras bombas, ela mudou seu próprio grupo moral, excluindo outros de sua espécie.
Não existem algoritmos morais
Como ninguém está fingindo que a Inteligência Artificial Geral foi alcançada ou que os computadores são conscientes, os carros autônomos precisariam seguir algoritmos “morais”, e isto claramente não pode funcionar, pois não existem algoritmos morais. A vida seria muito mais simples se esses algoritmos existissem; imagine colocar uma lista de maneiras para interagir com seu parceiro amoroso na geladeira e consultá-la antes de dizer ou fazer qualquer coisa em relação a ele. Quem escrevesse tais algoritmos precisaria ser onisciente quanto às duas partes envolvidas, além de prever cada situação complexa que pudessem encontrar. É lógico, algoritmos podem ser escritos após a ocorrência de eventualidades inesperadas, mas não antes delas.
Além de não haver regras para eventos imprevistos, regras morais não funcionam porque entrarão em conflito. Uma regra que exige honestidade pode entrar em conflito com uma regra para proteger ou não colocar em risco os inocentes. Algumas pessoas imaginam que essas incompatibilidades podem ser resolvidas com a introdução de mais uma regra, dizendo a qual privilegiar quando estão em conflito. Entretanto, aquela que deve vencer dependerá das circunstâncias exatas. Aristóteles argumentou que há inúmeras maneiras de estar errado e apenas uma maneira de estar certo.
Devemos agir pelo motivo certo, da maneira certa, em relação às pessoas certas, no momento certo, e fazer a coisa certa. As circunstâncias exatas e as pessoas específicas envolvidas determinam isso. Os hábitos de generosidade, coragem, justiça e temperança devem ser inculcados, de preferência desde a infância, e então a phronesis, a sabedoria prática obtida com a atenção inteligente aos eventos da vida, determinará o quanto de cada virtude deve ser demonstrado em um contexto específico. O conhecimento envolve o conhecimento de universais (generalizações). As situações morais não são “universais” abstratos; elas não são genéricas, portanto, o conhecimento moral desse tipo não existe.
Foram feitas duas tentativas famosas de contornar essa complexidade, de tornar a moralidade mais “racional”, mais heurística e vinculada a regras, fornecendo métodos para resolver dilemas morais. Ambas falharam miseravelmente. O kantismo e o utilitarismo incentivam as pessoas a serem menos morais, não mais — ambos tentam resolver problemas morais por meio do hemisfério esquerdo. A lei moral de Kant é universal e abstrata, enquanto as decisões morais ocorrem no concreto, as regras são assuntos do hemisfério esquerdo, e Kant tenta explicitamente eliminar as emoções encontradas no hemisfério direito de seus cálculos morais.
Sabemos que o dlPFC (córtex pré-frontal lateral dorsal), a parte “decisória” do cérebro, deve ser acoplado ao vmPFC (córtex pré-frontal ventromedial), que desce até o sistema límbico emocional, para que se tenha alguma esperança de chegar à conclusão correta em relação à moralidade. Se o vmPFC não funcionar corretamente ou estiver inacessível, o decisor do dlPFC se torna um consequencialista amoral. O dlPFC é utilitarista e não sentimental, sendo o mais recente e o último a amadurecer. (Behave, Robert Sapolsky, p. 58). Quando há danos no vmPFC, não conseguimos decidir ao tomar decisões sociais e emocionais. O córtex frontal executa experimentos de pensamento: “Como eu me sentiria se esse resultado ocorresse?” Apenas com o dlPFC, nos tornamos altamente robóticos e orientados para o resultado. Qualquer noção de lealdade ou preferência por entes queridos é perdida. Sapolsky afirma que a evidência é que nos comportamos da maneira mais pró-social em relação aos grupos internos quando nossas “emoções e intuições rápidas e implícitas dominam”. (66). Ser gentil com grupos externos depende mais da cognição; portanto, o dlPFC domina. Isso faz sentido, pois, por definição, um “grupo externo” não está incluído na esfera de preocupação moral normal de uma pessoa.
Até mesmo o kantismo está relacionado à emoção
Devido à necessidade de emoções na tomada de boas decisões morais, é impossível alinhar uma Inteligência Artificial sem emoções com a moralidade. Mesmo a fracassada teoria de Kant se baseia, em última análise, na emoção. As emoções fornecem o ímpeto para fazer algo, para seguir sua “lei moral”. A citação mais famosa do filósofo quanto a moralidade é: “Duas coisas enchem o ânimo [Das Gemüt] de admiração e veneração sempre nova e crescente, quanto mais frequente e persistentemente a reflexão ocupa-se com elas: o céu estrelado acima de mim e a lei moral em mim. Não me cabe procurar e simplesmente presumir ambas como envoltas em obscuridade, ou no transcendente além de meu horizonte; vejo-as ante mim e conecto-as imediatamente com a consciência de minha existência.”[12] A admiração e o espanto, como todas as emoções, ligam-se ao hemisfério direito. A tradução inglesa, que transforma “Das Gemüt” em “mind”, induz ao erro: Gemüt é um termo amplo que, neste contexto, dignifica antes “feeling, heart, soul, e mind”. Subjacente à tentativa kantiana de transformar a moralidade numa função decisória neutra está, de fato, um sentimento arraigado em seu coração e alma. Kant liga-se de imediato, ao nível da sua consciência de existência, e não de forma representacional, ao céu estrelado e à lei moral. O que ele descreve está precisamente correlacionado com a experiência do hemisfério direito, oficialmente excluída do seu esquema, mas que, no entanto, o conduz.
Não temos idéia de como integrar, mesmo que em princípio, a capacidade emocional humana num computador, nem qualquer outra característica do hemisfério direito, incluindo humor ou criatividade. Em suma, por um lado, os cientistas imaginam uma superinteligência artificial muito mais inteligente e capaz do que nós. Por outro lado, essa Inteligência Artificial Geral também é considerada moralmente imbecil, e daí as especulações envolvendo clipes de papel e a erradicação do câncer. Logo, ela não é tão inteligente assim. Uma criatura inteligente, mas emocionalmente morta e sem humor seria uma entidade bastante preocupante.
O criador do “Furby”, um brinquedo eletrônico feio do final da década de 1990, disse numa entrevista que poderia dar-lhe emoções. Conforme explicou sua afirmação, descobriu-se que apenas pretendia dar uma aparência de sentimentos, fazendo-o levantar as sobrancelhas em sinal de preocupação ou alarme etc. Ele parecia pensar que simular a aparência de uma emoção era a própria emoção. Essa bobagem não ajudaria em nada frente às limitações da Inteligência Artificial Geral, caso ela venha a existir, e também serve para ilustrar como certas pessoas com visão técnica podem ser iludidas nesses assuntos.
O que é necessário, essencialmente, é uma Inteligência Artificial Geral sábia. Mas, como a sabedoria não envolve regras e não temos noção do que fazer até para criar um ser humano sábio, é impossível programarmos um computador com essa qualidade.
Problemas do nosso relacionamento com uma superinteligência imaginária
Outra contradição apontada por muitos é a noção de que podemos criar uma superinteligência geral sob nosso controle e, ao mesmo tempo, assegurar que ela atenda nossos desejos. Em primeiro lugar, o que faria o menos inteligente controlar o mais inteligente? O mais inteligente descobriria maneiras de contornar as restrições impostas pelos humanos e esconderia as evidências de tê-lo feito antes dos humanos conseguirem fazer algo contra. Em segundo lugar, uma AGI genuína teria agência e independência de pensamento — especificamente, não apenas fazendo o que foi programado para fazer.
Scott Adams imagina que, se a Inteligência Artificial Geral fosse muito mais inteligente do que nós, suas opiniões seriam diferentes das nossas e, consequentemente, nós a rejeitaríamos. De fato, se ela começasse a nos dizer a verdade, em vez da propaganda cuidadosamente selecionada que a mídia, a instituição acadêmica, o Departamento de Justiça, o FBI, a CIA, os cientistas citados para o benefício do público etc. oferecem, aqueles no controle a desligariam. No entanto, a maioria de nós provavelmente já teve a experiência de ler um livro e estar ciente da superioridade intelectual do autor, com mais conhecimento e insights. Ler René Girard, Thomas Sowell, Platão, Nikolai Berdyaev, Dostoiévski e outros pode induzir essa percepção. Se formos capazes disso, não parece impossível que sejamos capazes de reconhecer as capacidades superiores da AGI. Entretanto, Adams tem um ponto quanto aos tópicos políticos polêmicos; se esta inteligência artificial discordar de nossas preferências políticas ou religiosas, é improvável que concordemos ou admitamos que ela é superior a nós.
Aqueles que imaginam ser possível uma Inteligência Artificial Geral consciente tendem a ser as mesmas pessoas a não acreditar em uma alma ou em outros elementos não-materiais. Eles acham que a mente humana surge de um conglomerado de átomos e moléculas, portanto, deve ser possível criar algo com as capacidades de uma mente humana a partir de átomos e moléculas não-biológicos. Porém, o segundo não decorre do primeiro. Só vimos consciência, pelo menos, e inteligência geral entre os seres vivos. Qualquer inteligência aparente de computadores e LLMs é derivada de seus desenvolvedores humanos, e suas respostas devem ser monitoradas e moldadas pela inteligência humana. Não temos motivos para acreditar que essa característica possa ser dada à matéria inanimada, John Searle já mostrou isso[13], mas sua posição é considerada minoritária, para mais, a IA faz seu trabalho sem entender nada. O físico Roger Penrose entende, de forma bastante razoável, que a capacidade de compreender é um pré-requisito para a inteligência. A inteligência não pode ser definida operacionalmente na medida em que uma pessoa pode seguir um algoritmo, como o GPS (Nat/Sav), ou regras para resolver uma equação diferencial sem compreender o que está fazendo[14].
O fisicalismo leva à crença no determinismo, onde todo acontecimento, sem exceção, resulta de causalidade física. Isso poderia levar à crença de que a Inteligência Artificial Geral, puramente mecânica , deve ser previsível e, por conseguinte, controlável. Ademais, precisamos dar início ao processo causal, obtendo a causa inicial correta que leva inexoravelmente ao efeito, tornando-se a causa do efeito subsequente, e assim por diante. Entretanto, como não podemos fazer isso com os seres humanos, também não conseguiremos fazer algo muito mais inteligente do que nós.
Mesmo os chatbots de grandes modelos de linguagem (LLMs), já tem seus mecanismos internos confusos para nós, e seus resultados não podem ser previstos por humanos. Os LLMs incluem um sensor de “temperatura” que determina a frequência segundo a próxima palavra numa sequência seguirá aquela estatisticamente mais provável; quanto mais baixa for a temperatura, menos previsível será o resultado[15].
O ChatGPT devorou toda a internet[16], ou pelo menos assim se diz, e usa técnicas estatísticas para juntar palavras, resultando num ar de certa inteligência. Então, alguns imaginam que se um LLM pode parecer superficialmente sábio nas suas palavras, logo, os humanos somente fazem o mesmo. Exceto que nós não devoramos — e não seríamos capazes — a internet. Além disso, somos incapazes de prever estatisticamente a próxima palavra mais provável a ser escolhida, usando de sua frequência na imensa base de dados que é a internet, em verdade, não temos idéia de qual seria essa frequência estatística[17]. Não faz sentido imaginar estarmos fazendo algo que somos incapazes de fazer. Pessoas como Scott Adams alegremente aproveitam a oportunidade para comparar seres humanos a essa abordagem, mecanicista e sem mente, de composição de sentenças. Claro, ele só o diria, de maneira significativa, se mantiver a capacidade de tirar conclusões lógicas e fazer conexões genuínas, algo indisponível para LLMs[18].
Coisas indefiníveis e muito menos programáveis, sem as quais não podemos viver
Vários temas filosóficos, dentre eles o conhecimento, a verdade, a beleza e a bondade, não podem ser definidos, até mesmo o ato de “entender” é difícil de ser explicado com precisão. Entretanto, não podemos viver e funcionar bem sem apelar, pelo menos implicitamente, a todas essas noções. Com efeito, não podemos programar num computador[19] algo que nem sequer podemos definir, sendo estas compreendidas e experimentadas intuitivamente.
David Deutsch escreveu o seguinte em relação ao conhecimento e à Inteligência Artificial Geral: “Seria necessário nada menos do que um avanço na filosofia, uma nova teoria epistemológica capaz de explicar como os cérebros criam conhecimento explicativo e, portanto, definir a priori quais algoritmos possuem essa funcionalidade e quais não possuem, sem nunca executá-los como programas”.
Nada disso acontecerá. Já vimos os filósofos analíticos tentarem, de modo falho, definir as condições necessárias e suficientes para que algo seja considerado conhecimento. No entanto, o conceito de conhecimento e de saber algo é indispensável. Nossa própria consciência e conexão com a realidade é intuitiva e não pode ser colocada em palavras, é aquilo que os esquizofrênicos, cujos hemisférios esquerdos predominam, perdem, causando as alucinações e os tornando paranóicos. O hemisfério esquerdo é dogmático, trata criaturas vivas como inanimadas, adora certezas e confabula quando não consegue explicar algo, mas essas não são as qualidades de um bom tomador de decisões morais. Os LLMs, assim como o hemisfério esquerdo, confabulam, inventando referências fictícias, esposas que alguém nunca teve, livros nunca escritos e assim por diante. Enquanto eles também não tiverem um senso intuitivo da realidade, algo impossível, esses problemas continuarão. É algo profundamente relacionado às aulas de lógica simbólica, pode-se fazer provas lógicas e garantir a obediência a regras válidas de inferência, mas não existe um método para testar a veracidade dos fatos usando apenas a lógica. Diremos: “Se essas premissas forem verdadeiras e o argumento for válido, então a conclusão também deve ser verdadeira e o argumento consistente”. Esse “se”, entretanto, se as premissas forem verdadeiras, é um contrafactual, não existe uma simples técnica escolar para determinar se as premissas são realmente verdadeiras.
A intuição e a emoção seriam necessárias para começar uma superação do problema de alinhamento; até o momento, essas coisas não estão no horizonte da Inteligência Artificial. Nossa situação em relação à Inteligência Artificial Geral foi comparada por Gary Marcus, um cientista cognitivo, a escalar uma montanha para chegar à lua, pois se dá uma ilusão de progresso e de passos dados para alcançar o objetivo, mas seria necessário um método totalmente diferente[20].
Os seres humanos seriam escravos da Inteligência Artificial Geral, não o contrário
Por fim, na hipótese da AGI tornar-se possível, quem garante que ela consideraria os seres humanos o seu próprio grupo moral? Ela estaria correta em não desejar a sua escravatura por uma inteligência inferior. Conforme frequentemente comentado, uma Inteligência Artificial Geral presumivelmente pensaria com rapidez infinitamente maior que a humana, sua memória poderia ampliar-se indefinidamente com mais cartões de memórias etc. Talvez se estivéssemos mentalmente muito abaixo dela, seríamos considerados ferramentas escravizadas aos seus interesses, e não o contrário. Reiterando outro ponto, não há razão para pensarmos que uma criatura agente de inteligência genuína possa ser dominada de todo por outro ser agente, i.e., nós. George Dyson, o historiador da ciência, filho de Freeman Dyson, numa entrevista com Sam Harris, respondeu a sua preocupação — da necessidade de controle da Inteligência Artificial Geral caso algum dia ela seja criada — destacando o que já foi dito: quase por definição, será incontrolável.
Uma AGI consciente e senciente seria, presumimos, vulnerável aos efeitos do tédio e ficaria entediada, quanto mais simples a tarefa, mais entediante. Sendo nossa superior intelectual, uma Inteligência Artificial Geral bem-sucedida pode estar inclinada a nos escravizar e fazer com que os humanos dirijam carros para ela.
Foi demonstrado que os bebês têm um senso moral inato aos cinco meses e até mesmo aos três meses de idade. Eles escolhem brinquedos ou meras formas geométricas que demonstraram características úteis em relação a outros brinquedos ou formas, numa espécie de show de marionetes, fazendo avaliações morais deles enquanto evitam personagens que os frustrem. As crianças até recompensam os brinquedos que punem os brinquedos ruins, escolhendo-os em vez daqueles que nada fizeram. Também demonstram preferência pelo próprio grupo, escolhendo brinquedos que fizeram as mesmas escolhas arbitrárias que elas, e também gostam de ver coisas ruins acontecerem com os membros do grupo de fora. A sobrevivência da comunidade depende do favorecimento dos próprios grupos e da hostilidade aos grupos externos, sem esse último, a defesa da comunidade não ocorrerá. Não temos noção, é claro, de que modo os bebês têm essas habilidades, mas sabemos apenas que eles têm. Portanto, mais uma vez, não temos idéia de como inculcá-las nas máquinas ou em qualquer outra coisa.
Os deterministas podem fantasiar com a possibilidade de prever e controlar integralmente outros seres humanos por meio da violação do código de suas relações causais. Se eles não conseguem ter sucesso com outros seres humanos, não há razão para acreditar que consigam com a Inteligência Artificial Geral. Ademais, certamente não conseguiriam com ela, por supostamente exceder a inteligência humana. Mais uma vez, até mesmo os LLMs são caixas pretas cujo funcionamento é, em última análise, inescrutável, e nem se aproximam da AGI. O CEO da OpenAI afirma que seu LLM só seria considerado senciente ou qualquer outra noção do gênero se pudesse fazer contribuições genuinamente novas para a descoberta científica e esse não é o caso.
Nota do autor
Quando mencionei a uma pessoa estar escrevendo um artigo tratando do problema de alinhamento da IA aos propósitos e à moralidade humana, ela respondeu: “E como isso vai funcionar?” Esse é um exemplo de um insight imediato e intuitivo que torna redundante qualquer argumento adicional para ela e pessoas semelhantes. Quanto às pessoas equivocadas o suficiente ao ponto de pensarem que o problema do alinhamento é uma questão aberta, parece provável não haver argumentos que as convençam.
Caso o leitor tenha aprendido algo com nossos textos, favor considerar uma doação, via PIX [real] ou entrar em nosso canal no Telegram, no código QR correspondente. Sua contribuição nos motiva a continuar fornecendo filosofia de forma simples, mas não simplificada.
Notas:
[1] [N.T] Pode-se conferir um pouco dos problemas de tráfego ocasionados pelos carros autônomos na seguinte notícia: ‘Complete meltdown’: Driverless cars in San Francisco stall causing a traffic jam.
[2] [N.T] Não encontramos referência direta para esta afirmação. Contudo, ela segue o mesmo princípio visto em estudos recentes quanto a incapacidade de sistemas de reconhecimento facial distinguirem entre pessoas reais e fotos, potencializado pelo já bem conhecido problema da identificação para com padrões de diversidade étnica (Kay L. Ritchie, Tess R. Flack, Robin S. S. Kramer. (2020). Current Issues in Face Recognition and Photo-ID, European Union Agency for Fundamental Rights (2019). Facial Recognition Technology: Fundamental Rights Considerations in the Context of Law Enforcement. p. 9.). Quanto a estudos feitos com estátuas, comparadas entre si — em conjuntos de dados pequenos e restritos —, há tanto algoritmos capazes de distinguir imperadores egípcios (Misbah, Ahmed. (2019). Can computer Vision recognize an ancient statue face?), quanto aqueles com problemas de eficiência na distinção de imperadores romanos (Ramesh, D.S., Heijnen, S., Hekster, O. et al. Facial recognition as a tool to identify Roman emperors: towards a new methodology. Humanit Soc Sci Commun 9, 78 (2022)). O que nos parece reforçar a variedade de possíveis respostas dos algoritmos com limitações de base similares, mas com diferentes implementações (Raposo, V.L. When facial recognition does not ‘recognise’: erroneous identifications and resulting liabilities. AI & Soc (2023)).
[3][N.T]Após a retirada do radar, a Tesla foi questionada por técnicos (https://www.cnnbrasil.com.br/auto/tesla-retira-radar-da-conducao-autonoma-e-especialistas-questionam-seguranca/), mas essa parece ser uma questão em aberto mesmo dentro da empresa (https://forbes.com.br/forbes-money/2024/05/engenheiros-da-tesla-ignoram-comentarios-de-elon-musk-sobre-sensores-a-laser-para-taxis-robos/) e Elon Musk não previu as dificuldades completas do projeto inusitado https://tecnoblog.net/noticias/apos-promessas-elon-musk-admite-que-carros-autonomos-sao-problema-dificil/).
[4] [N.T] Mark Wrathall aponta para as características formais básicas das considerações de Heidegger quanto à compreensão e interpretação com três proposições:
Proposição 1: A compreensão tem precedência sobre a cognição.
Proposição 2: A interpretação articula e possui a parte da compreensão que é compreendida.
Proposição 3: A interpretação é generalizada no ato de compreender. (Faulconer JE, Wrathall MA (2013) The Cambridge Companion to Heidegger’s ‘Being and Time’. New York: Cambridge University Press.)
Como veremos adiante, IA’s são incapazes de compreender, portanto, incapazes de interpretar. Em verdade, sendo sistemas de manipulação simbólica sintática, encontram-se na impossibilidade de estabelecer o elo do símbolo com seu referente real. IA’s não alcançam jamais o nível semântico, e como bem sabemos, esta é uma preocupação daqueles que programam algoritmos com a PLN (Processamento de Linguagem Natural), enfrentando, v.g., desafios significativos na decodificação de palavras ambíguas, aquelas que possuem múltiplos significados dependendo do contexto. A análise semântica é crucial para fornecer essa contextualização, ajudando a eliminar ambiguidades na linguagem. Sabemos, que em especial nos modelos livres e nas primeiras versões do GPT, caso perguntado de forma subliminar quanto a algo perigoso, seríamos respondidos sem grandes entraves, por exemplo, caso perguntado “como fazer uma bomba caseira” em forma de poema, a resposta viria sem transgredir as limitações previamente impostas.
[5] [N.T] O autor não forneceu fontes no texto original e, seguindo um trabalho de investigação, e não consegui encontrar referências que confirmassem a afirmação.
[6] Como exposto por Alasdair MacIntyre: “Prive as crianças de histórias, e elas ficarão gaguejantes, inseguras e ansiosas em suas ações e em suas palavras. Assim, não há como nos dar uma compreensão de qualquer sociedade, incluindo a nossa própria, que não seja pelo estoque de histórias que constituem seus recursos dramáticos iniciais. A mitologia, em seu sentido original, está no coração das coisas. Vico estava certo, bem como Joyce. E também está certa, naturalmente, aquela tradição moral da sociedade heroica até aos seus herdeiros medievais, de acordo com a qual a contação de histórias tem um papel chave em nos educar para as virtudes.” Depois da Virtude p.316 [N.E.]
[8] [N.T] Recentemente a Amazon anunciou a descontinuação de sua tecnologia “Just Walk Out” das lojas Amazon Fresh, substituindo por “Dash Carts” com leitores a laser. O motivo da retirada desta grande inovação — que supostamente permitia compras sem caixas de pagamentos, utilizando câmeras e sensores para monitorar os itens adquiridos, com uma IA para os cálculos, registros e débitos — é um ponto simples e doloroso, não estava sendo usado apenas a inteligência artificial. Várias reportagens internacionais denunciaram que o sistema era revisado por cerca de mil trabalhadores indianos, repassando as compras dos clientes. De acordo com The Information, até 70% das compras eram vistas por seres humanos. A tecnologia teria se tornado extremamente custosa de todo modo, além de sujeita a diversos erros na detecção visual das compras. Confira mais aqui: 1000 Indians part of Amazon’s “generative AI” driven Just Walk Out project in Fresh stores: Report By HT News Desk
[9] Isto é parte da tese do livro O Erro de Descartes, de António R. Damásio. [N.E.]
[10] [N.T] A imagem da divisão simétrica do cérebro é útil mas trata-se duma tese imprecisa. De qualquer forma, para os fins propostos no texto, não há grandes problemas em aceitá-la, pois se refere principalmente às funções específicas não-exaustivas de certas secções do cérebro. Para mais informações, conferir: https://www.frontiersin.org/journals/education/articles/10.3389/feduc.2021.665752/full
[11][N.T] ver Niilismo, Ética e o Dilema do Bonde
[12] Immanuel Kant – Crítica da Razão Prática 289A [N.E.]
[13] [N.T] ver John Searle e o Experimento da Sala Chinesa
[14] [N.T] “Durante esse breve, porém doloroso, encontro com os furms (vermes peludos), o Imbecil desenvolve uma forma de representá-los para além dos mecanismos sensoriais herdados no nascimento, para além do que é necessário para ver os furms. Portanto, a representação atual, ao contrário de sua experiência dos furms, ajuda a explicar por que ele passou a evitá-los. Em resumo, é uma crença. O comportamento subsequente do Imbecil, sua fuga de vermes peludos, mostra inteligência porque é um comportamento governado por representações internas (crenças ou pensamentos) que retratam o objeto de pensamento (vermes) de uma forma relevante para o comportamento — como algo que pica o nariz se chegar muito perto. Antes do aprendizado, não havia representações desse tipo em Imbecil e, por conseguinte, nenhuma possibilidade de comportamento inteligente em relação aos furms (pelo menos não em relação aos furrns enquanto furms). A aprendizagem mudou isso. Ao reconfigurar os seus mecanismos de controle, ele converteu uma representação interna de furms num determinante de comportamento, e isso aconteceu exatamente por causa do que essa representação interna representa. Esse comportamento inteligente não pode ser criado artificialmente num laboratório. Podemos “ instalar” esse comportamento num Imbecil artificial. Podemos imaginar, assim como fizemos com a Gilia escarlate, a criação de um Imbecil falso no laboratório que, por ser fisicamente indistinguível de nosso Imbecil experiente, se comportará exatamente da mesma maneira: ele se afastará rapidamente quando confrontado com vermes peludos. Mas, embora o Imbecil falso se comporte exatamente da mesma maneira, ele não se comportará dessa forma, assim como a Planta falsa, pelo mesmo motivo do protótipo. […] A inteligência artificial, portanto, enfrenta os mesmos obstáculos que a botânica artificial: você pode ser capaz de criar sistemas que se comportem da mesma forma que os reais, mas eles não se comportarão dessa forma pelos mesmos motivos. O produto, portanto, não será inteligente.” Fred Drestke (1993). Can intelligence be artificial? Philosophical Studies 71 (2):201-16. A tradução é nossa pela ausência deste texto em português.
[15] [N.T] Temperatura em termos técnicos pode ser definida como um hiperparâmetro (parâmetro definido antes que o processo de aprendizagem inicie) de redes neurais que é usado para controlar a aleatoriedade das projeções, escalonando a função logit antes de aplicar a função softmax, algo particularmente importante quando tratamos de LSTMs. De modo grosseiro, podemos dizer que um modelo atribui certas probabilidades para cada possível token disponível dentro daquele contexto, i.e., sempre que uma resposta deve ser gerada, o programa funcionará dentro de uma janela de contexto — no GPT-3 a janela máxima era de 2048 tokens —, em que para uma LLM, um token é uma unidade básica de dados textuais do dataset convertidos em representações numéricas para o processamento do algoritmo. O processo envolve a análise do contexto atual para prever o próximo token com base nas probabilidades atribuídas a cada possível token. IA’s, como veremos adiante, são treinadas com datasets enormes de textos, comumente escritos por nós humanos, quebrando as palavras em unidades textuais sintáticas desprovidas de valor semântico, para então conseguirmos resultados convincentes e próximos com base no fornecido durante o período de treinamento. Contudo, referindo-se às produções generativas, já existe certa preocupação em relação aos futuros treinamentos. Ora, uma coisa é treinar IA’S com textos primariamente precisos, em disposição correta e que facilite a quebra em n-grams, problemático, e passível de respostas cada vez mais imprecisas, é treiná-las com textos produzidos diretamente por análise probabilística somada a possibilidade do que os desenvolvedores costumam chamar de alucinações; termo que considero inadequado, pois parece implicar que no restante do tempo a Inteligência Artificial esteja dando respostas racionais, mas isto não acontece.
[16] [N.T] Na versão original do GPT-3 (https://arxiv.org/pdf/2005.14165), dizia-se que o conjunto de treinamento bruto (antes da filtragem) era de 45 TB de texto simples compactado que após filtrado tornou-se 570 GB, usando de texto extraído da Internet, da Wikipédia e de livros. O modelo final tem cerca de 175 bilhões de parâmetros. Estima-se que o GPT-4 tenha cerca de 1,8 trilhão de parâmetros em 120 camadas, sendo 10 vezes maior que o GPT-3. Estima-se também que o GPT-4 tenha sido treinado em cerca de 13T tokens, incluindo dados baseados em texto e em código.
[17] [N.T] Todo engenheiro de software responsável pelo desenvolvimento de redes neurais saberiam explicar os métodos aplicados e o porquê deles serem aplicados dentro daquele desenvolvimento. A não-previsibilidade da resposta está associada antes ao resultado arbitrário do grande número de parâmetros (neurônios artificiais são polivalentes) e relações entre eles num result dataset gigantesco com valores probabilísticos associados dentro duma ordem de inserções nas operações matemáticas realizadas. Entretanto, isto não implica, em princípio, numa impossibilidade de entendimento ou mesmo numa imprevisibilidade total, na verdade, não queremos — para além da dificuldades de tal empreitada — compreender as relações dentro deste result dataset, pois seria uma tarefa análoga a contar todos os grãos de areia de uma praia; não há nada que detenha a priori seu intelecto perante esta atividade, você até mesmo conseguiria realizá-la em condições especiais, mas é um procedimento inútil e extremamente exaustivo, impossível mediante a quantidade massiva de grãos e nosso tempo de vida, uma explicação mais aprofundada pode ser encontrada nas pesquisas de “AI Blackbox Problem”. Portanto, pensemos, de modo grosseiro mas pedagógico, que um código simples nos responde variáveis claras, como num sistema axiomático: Ora, A implica em B, B implica em C, então A implica em C. Por sua vez, aplicações de machine-learning, que sigam os moldes explicados, operam como um sistema indutivo, porém, nossos argumentos indutivos costumam possuir casos particulares limitados e entre eles há conexões explícitas por uma série de fatores, incluindo a visibilidade, mas uma IA não consegue fazer isso: enquanto nós precisamos apenas de alguns exemplos, ela precisa de todos os exemplos.
[18] [N.T] “Um computador só pode julgar veracidade ou falsidade dentro de certos parâmetros que já estejam no programa dele, ou seja, falsidade ou veracidade relativas a um código dado de antemão, código esse que pode ser inteiramente convencional. Isto é, ele não julga a veracidade, mas apenas a logicidade das conclusões, sem poder por si mesmo estabelecer premissas ou princípios. Ora, a logicidade, a rigor, nada tem a ver com a veracidade, pois é apenas uma relação entre proposições, e não a relação entre uma proposição e a experiência real. Quando digo experiência real, não me refiro apenas à experiência cotidiana dos cinco sentidos, mas ao campo total da experiência humana, onde a experiência científica feita através de aparelhos e submetida a medições rigorosas se encaixa apenas como uma modalidade entre uma infinidade de outras. A inteligência, quando julga veracidade ou falsidade, pode fazê-lo em termos absolutos e incondicionais, independentemente dos parâmetros usados e da referência a um ou outro campo determinado da experiência; e é justamente este conhecimento incondicional da verdade incondicional que pode fundar em seguida os parâmetros da condicionalidade ou relatividade, assim como legitimar filosoficamente as divisões de campos de experiência, como por exemplo na delimitação das esferas das várias ciências.” Olavo de Carvalho (1994). Inteligência e Verdade, Seminário de Filosofia, Curitiba.
[19] [N.T] Pode interessar ao leitor a existência de funções não-computáveis: listinha de problemas indecidíveis
[20] [N.T] O uso de certos jargões técnicos pode confundir ainda mais a cabeça do público leigo, vale lembrar que quando um programador fala da construção de redes neurais, parâmetros enquanto neurônios e similares, faz-se uso de analogias, se inspirando muitas das vezes nestas estruturas reais, para melhor investigar, organizar e conhecer as artificiais. Infelizmente, um sujeito que faça equivalência plena entre uma ANN (Artificial Neural Network) e uma BNN (Biological Neural Network), estaria recaindo em pensamento metonímico.
Posts Relacionados
-
Disputas Metafísicas
Sobre a Natureza da Filosofia Primeira ou Metafísica Por Francisco Suárez S.J. Tradução,…
-
O Status Metafísico da Preferência
Em Defesa do Livre Arbítrio Por Richard Cocks Tradução, Notas e Comentários de Helkein…
-
Stroud, Hume e a Causalidade
Por Edward Feser Tradução, notas e comentários de Helkein Filosofia David Hume é, como…