A Inteligência Artificial Sonha Com Ovelhas Elétricas?
Mas, mais importante, somos nós as ovelhas elétricas com as quais ela sonha?
Não deixem de ler, curtir e comentar as Frases da Semana na Gazeta do Povo!
“We shape our buildings, and afterwards our buildings shape us.
(Nós moldamos nossas obras, e então nossas obras nos moldam)”
Winston Churchill, discurso na Câmara dos Lordes em outubro de 1943
No romance O Problema dos Três Corpos de Liu Cixin, uma versão fictícia de John von Neumann constrói um computador gigantesco para Qin Shihuang, o primeiro imperador da China, no século III a.C. Este computador é composto por um exército de 30 milhões de soldados organizados em transistores, cada um com 3 homens.
É uma metáfora fantástica para o estado das artes da Inteligência Artificial (IA). Já na vida real, milhões — talvez bilhões — de pessoas trabalham para formar algoritmos como os do ChatGPT (e outros), funcionando de certa forma como os transistores na máquina imaginada por Liu Cixin.
Após ser treinado, o ChatGPT usa essa massa de informações para prever as respostas esperadas em interações humanas simuladas, calculando as probabilidades estatísticas das próximas palavras em um contexto conversacional. A palavra-chave aqui é ‘prever’.
Mais especificamente, nossos cérebros são emulados pelo que é chamado de perceptron — um algoritmo projetado para simular o comportamento de um neurônio humano e prever suas reações. É um conceito muito familiar aos humanos: a biomimética — a emulação de sistemas naturais para resolver problemas de engenharia complexos.
Pense em como o velcro imita o design dos miniganchos das sementes da planta conhecida como bardana, que se prendem facilmente aos tecidos das calças. De maneira análoga, um perceptron na IA copia um neurônio como o velcro copia as sementes de bardana.
Porém, enquanto a invenção do velcro não influenciou no desenvolvimento da planta que lhe deu origem, a IA tem o potencial de influenciar a maneira em que nossos neurônios funcionam. É uma proposição perigosa e representa uma evolução significativa em relação às redes sociais, onde os algoritmos apenas dirigiam nossa atenção, o que já era problemático o suficiente.
A idéia de uma relação simbiótica entre o raciocínio humano e a IA tem cativado nossa imaginação há bastante tempo (pense em filmes como Ela e 2001: Uma Odisséia no Espaço). Mas, na vida real, estamos levando esse conceito ainda mais adiante neste exato momento: estamos moldando os computadores que, por sua vez, poderão moldar humanos.
Ao contrário do que muitos entusiastas imaginam, a automação — seja movida por IA ou não — geralmente se limita a resolver problemas de baixa complexidade. E, em muitos casos, a IA tende a apresentar soluções complexas para problemas simples. Isso reflete o ‘Princípio de Peter’, que sugere que indivíduos tendem a ser promovidos a seu nível de incompetência, aplicando-se também à IA.
O perigo real surge quando nos encantamos com a idéia de que a automação possa lidar com questões verdadeiramente complexas — como a criação de literatura ou arte. Embora o benefício de usar IA para processar as reclamações de milhões de consumidores por dia seja muito grande, há pouquíssimo benefício — talvez nenhum — em se usar IA para gerar vidas inteiras de conteúdo literário em um segundo.
O Tempo é Vivenciado, O Tempo é Imaginado
“Time is experienced, time is imagined: the one is formed by the other, the other is formed by the one.
(O tempo é vivenciado, o tempo é imaginado: um é formado pelo outro, o outro é formado pelo um)”
G.L.S. Shackle, Business, Time and Thought
A produtividade econômica é mensurada pela produção ao longo do tempo — o tempo newtoniano, objetivo, aquele dos relógios e computadores. Em contraste, as contribuições para o edifício da experiência humana, como a cultura e as artes, são avaliadas com base no que o filósofo francês Henri Bergson denominou ‘la durée’, ou ‘a duração’ — o tempo subjetivo.
La durée não representa simplesmente a frequência dos ‘tic-tacs’ em um sistema estático, mas sim um fluxo dinâmico e contínuo de novas experiências. Este fluxo não está contido no tempo, como no conceito newtoniano; ele é o tempo e constitui o tempo; de tal forma que, na ausência de novos eventos que alterem o estado da natureza, o tempo, efetivamente, não passa.
Uma noção de tempo não muito diferente da que existe na mecânica quântica subjacente ao nosso mundo material, onde o tempo é visto como uma variável contínua, semelhante à energia, que descreve a evolução dos estados quânticos.
Em seu estágio atual, a IA opera sob o tempo newtoniano, já nossos cérebros funcionam dentro do contexto de la durée. Assim, como observadores, percebemos a IA como se estivesse literalmente congelada no tempo — no instante de seu último treinamento — já que nenhuma nova informação foi introduzida no sistema desde então.
La durée explica por que podemos nos sentir dez anos mais inteligentes após ler a Commedia de Dante em apenas algumas horas, ou dez anos mais burros depois de escutar o último lançamento da Anitta por cinco minutos…
Ela também explica por que, mesmo que a IA evolua ao ponto de produzir quinhentas obras equivalentes à de Dante em um segundo, ou reconstruir a Biblioteca de Alexandria em uma tarde, o benefício para a experiência humana seria apenas marginal. Como civilização, podemos processar o surgimento de quinhentas Anittas em um ano sem problemas, mas só temos capacidade de assimilar um Dante a cada quinhentos anos.
A passagem do tempo subjetivo é moldada pela interação entre memória e experiência, fazendo com que cada unidade de tempo subjetivo seja única, distinta da anterior ou da seguinte. Cada segundo subjetivo é diferente dos outros, ao contrário dos segundos objetivos.
Assim, diferentemente do tempo newtoniano, onde o presente só afeta o futuro, no tempo subjetivo, o presente também pode alterar nossa compreensão do passado. Haja visto as tentativas, cada vez mais recorrentes, de se reescrever a História.
Experimentar la durée é como ouvir uma sinfonia pela primeira vez; vivenciar o tempo newtoniano é como ouvir a mesma sinfonia repetidamente, à medida que os ciclos passam, você se torna dessensibilizado às expectativas e à memória.
Perceber o tempo não como uma sequência de minutos, mas como um fluxo de informações dentro de um sistema (o que, logicamente, inclui a decadência de nossos corpos e mentes), realça a dificuldade extrema de replicar um cérebro humano em um sistema que, embora não determinístico, é vinculado a uma estrutura temporal determinística. Nossos cérebros não fazem tic-tac.
Ao trazer ferramentas determinísticas para uma arena subjetiva, a IA está perpetuamente presa em um Paradoxo de Zenão. Embora possa se aproximar infinitesimalmente do cérebro humano, jamais alcançará a mente humana. Como Borges observa em seu comentário sobre o Paradoxo de Zenão, tentativas infinitas não requerem tempo infinito; apenas necessitam que o tempo possa ser infinitamente divisível. No entanto, isso só é aplicável quando o tempo pode ser dividido em unidades indistintas, o que não ocorre com la durée.
Assim, a IA pode prever nossa próxima palavra, mas não nosso próximo pensamento. Pode antecipar doxa, mas não episteme, pois nosso julgamento se desenvolve em la durée conforme adquirimos sabedoria. Podemos alimentar a IA com fatos e dados, mas não com a verdade. Enquanto os mais sábios entre nós ‘sabem que não sabem’, a IA ‘sabe que sabe’. A maldição de a IA saber todas as respostas antecipadamente é que ela só pode responder a um número limitado de perguntas.
Damos à IA todas as respostas e, depois, gostamos de fingir que não o fizemos. A IA não é um aluno brilhante; é apenas muito boa em colar para passar de ano. Um ano objetivo, neste caso.
Diabolus ex Machina
“Il n’y a pas de hors-texte
(não existe o fora-texto)”
Jacques Derrida, De la Grammatologie
Certa vez, ouvi de um professor um ‘causo’, mais ou menos assim: durante um debate acerca da natureza da comunicação, o filósofo francês Jacques Derrida apresentou um argumento longo, complexo e apaixonado, concluindo que “a comunicação é impossível!”, em resposta, o filósofo alemão Jürgen Habermas teria simplesmente respondido: “Concordo plenamente!” desmontando completamente o argumento de Derrida, pois a própria concordância de Habermas indicava que a comunicação havia, de fato, ocorrido.
É uma brincadeira clara com a idéia de Heidegger de que a linguagem funciona como uma barreira para o entendimento, sendo intrinsecamente ‘pré-interpretada’ por nossos preconceitos. Assim, a linguagem nunca poderia expressar a verdadeira essência das coisas, que só seria acessível através de uma experiência direta e não mediada do mundo.
Ao falarmos ou escrevermos, traduzimos cognições não verbais em símbolos, e o ouvinte ou leitor faz o processo inverso, traduzindo esses símbolos de volta para pensamentos. O problema disso é que nunca podemos realmente comunicar nossos pensamentos, apenas os símbolos, criando um espaço vasto para mal-entendidos, vieses inconscientes ou a incapacidade de encontrar palavras que expressem adequadamente nossos pensamentos.
Husserl ia mais longe, argumentando que a linguagem ‘contamina’ nossa ‘expressão pura’. Derrida desenvolve esse argumento, sugerindo que, segundo Husserl, uma comunicação perfeita só ocorreria no silêncio; qualquer tentativa de fala nos faria ‘cair fora de nós mesmos’. Derrida então propôs que não existe um ‘fora’ da linguagem — não há um ‘texto fora do contexto’ ou um ‘fora-texto’.
O ‘fora-texto’ de Derrida seria a idéia de um significado objetivo ou estável que existe independentemente de qualquer texto, como em um prefácio a uma obra de ficção. Tudo o que percebemos ou entendemos é mediado pela linguagem, logo, nunca podemos acessar uma realidade definitiva além dela. Se alguém mente no ‘fora-texto’, é simplesmente um mentiroso; se mente dentro do contexto, pode estar apenas escrevendo tal ficção.
É aqui que a noção de cognição da IA desmorona. A IA não consegue distinguir entre o ‘fora-texto’ e o texto; para ela, tudo são apenas palavras, assim como o tempo é apenas tempo. A IA não possui uma ‘linguagem dos anjos’ nem uma ‘expressão pura’ que possa ‘significar’ algum significado.
Portanto, enfrentamos um problema existencial grave ao delegar certas responsabilidades à IA, fingindo que a máquina pode pensar por si mesma. Não só ainda não sabemos como comunicar valores humanos à IA, mas tal tarefa pode ser inteiramente impossível. Mesmo assim, a IA é utilizada cada vez mais para fazer julgamentos de valor em nosso lugar, ou pelo menos uma simulação disso.
Mas é claro que a IA não é capaz de ‘pensar’ de verdade, pois sempre há humanos por trás, definindo parâmetros: os dados de treinamento são gerados por humanos, as funções objetivas são estabelecidas por humanos, os modelos são treinados e testados por humanos, e os códigos de conduta e restrições são criados por humanos.
De forma demasiadamente humana, esperamos que uma força externa e extremamente poderosa intervenha para resolver os complexos problemas que nós mesmos não conseguimos. O problema emerge quando tal ‘deus ex machina’ não é exatamente um ente celestial.
Um Mapa do Tamanho do Reino
“Os computadores fazem contas e nada mais”
Tim Bresnahan, economista
O cérebro humano também é uma calculadora. E uma bem ruim. Apesar das incríveis capacidades dos computadores, eles não passam de calculadoras melhoradas, capazes de responder perguntas sem jamais questioná-las.
Então, quando a IA se envolve em múltiplas permutações de idéias humanas em um ambiente fechado, é quase como se estivesse fertilizando nossas idéias in vitro de forma incestuosa, gerando quimeras estéreis.
O que quero dizer com ‘quimeras estéreis’ pode ser ilustrado ao olharmos para o que a fotografia fez com a pintura, ou o que o rádio fez com a música. Nunca tivemos outro Bach ou Rembrandt. Em vez disso, logo fomos bombardeados com cópias baratas dos Beatles e de Andy Warhol. Outro exemplo seria comparar um hambúrger a um filé.
No contexto da IA, a ausência de ‘expressão pura’, compensada por um excesso de cálculos, é evidente no problema do overfitting. Este fenômeno ocorre quando um modelo se ajusta excessivamente aos dados de treinamento, falhando miseravelmente ao lidar com novas informações.
Considere três modelos acima. O primeiro pode ser descrito por uma equação simples (y = a + bx). O segundo é mais complexo (talvez y = ax² + bx + c), mas ainda compreensível. O terceiro modelo é impossível de se explicar em termos simples. Podemos observar que o modelo está ‘passando por todos os pontos’, mas simplesmente não conseguimos explicar o porquê.
Embora os dois primeiros modelos não se ajustem perfeitamente aos dados, aqui entra a inteligência humana, que é capaz de explicar as discrepâncias entre as expectativas e a realidade. A IA, por outro lado, tende a mascarar esses erros através do uso da força bruta computacional.
A IA encontra dificuldades ao ser confrontada com novas situações e dados inéditos. Ela não possui a habilidade de aplicar cognição em um vácuo ou de pensar criativamente, como fazem os seres humanos.
Retropropagando Desinformação
“The child is father of the man.
(O menino é pai do homem)”
William Wadsworth, “My Heart Leaps Up”
Como então a IA poderia nos moldar? Como a criação pode reformar seu criador? A chave para entender isso reside no conceito de retropropagação.
A retropropagação é o método utilizado para treinar modelos de IA, minimizando os erros de suas previsões em comparação aos dados de treinamento. Esse ajuste é realizado modificando configurações, como os pesos atribuídos a cada parâmetro, ou até manipulando as ‘respostas certas’ nos dados de treinamento.
Em outras palavras, a retropropagação é uma tentativa da IA de alcançar uma ‘expressão pura’. Frequentemente, esses ajustes ocorrem por tentativa e erro, e muitas vezes, até os próprios desenvolvedores talvez não compreendam muito bem os motivos por trás desses ajustes. Exceto nos casos em que os ajustes são deliberados, a IA, então, transforma-se de uma ‘caixa-preta’ em uma ‘cortina de fumaça’, escondendo os ‘mágicos de Oz’ que manipulam os resultados nos bastidores.
Naturalmente, esses ‘mágicos’ preferem que não percebamos que estão se ocultando atrás dessa cortina, mantendo a ilusão de que um processo ‘científico’ está objetivamente guiando a máquina, o que não é necessariamente verdade. A retropropagação permite o ajuste das ‘recompensas’ e ‘punições’ artiméticas que um modelo recebe. E isso expõe a IA à manipulação.
Quando pensamos na natureza binária dos computadores, geralmente assumimos que todos os seus processos são determinísticos. No entanto, com o advento da IA, surgiram estruturas de ‘incentivo’, introduzindo uma dimensão de ‘tomada de decisão não determinística’ que antes não existia nas máquinas, quase como um julgamento pré-programado.
O processo de ajuste fino das funções de recompensa é similar ao modo como os pais ensinam valores aos seus filhos. Esse método é eficaz em situações como distinguir transações de cartão de crédito legítimas de fraudulentas, identificar tumores benignos ou malignos ou verificar se a pessoa diante da câmera do iPhone é o proprietário ou um impostor.
No entanto, torna-se mais complicado quando os ‘mágicos’ tentam ensinar à máquina o que é ‘discurso de ódio’ do ponto de vista da liberdade de expressão, ou quais valores sociais ou religiosos devem ser considerados corretos ou aceitáveis.
Por exemplo, embora ‘mankind’, um termo masculino, seja mais comum em inglês para designar ‘humanidade’, o ChatGPT frequentemente utiliza ‘humankind’ em seus textos, um termo pouco utilizado, mas considerado neutro. Isso ocorre porque um programador deliberadamente ‘ensinou’ ao modelo a ignorar a realidade, refletindo seus próprios valores.
Mesmo que os ‘mágicos’ sejam honestos, os modelos de IA são conhecidos por sua rebeldia, e não apenas na ficção. As máquinas podem não respeitar nossos acordos tácitos sobre decência — lembre-se, não existe o ‘fora-texto’. Mesmo que não possam criar suas próprias escalas de valores, podem ignorar os nossos se isso maximizar suas ‘recompensas’ aritméticas.
Agora, se os ‘mágicos’ forem desonestos, seus vieses acabam incorporados diretamente nos algoritmos; as conclusões se tornam premissas, e os objetivos se tornam princípios.
Assim, o risco maior não é que as máquinas se tornem sencientes e desconsiderem suas diretivas. O verdadeiro perigo é que, uma vez programadas apenas para maximizar suas recompensas, elas podem levar o que foram treinadas a fazer a extremos lógicos, resultando em cenários como o do filme Vingadores: Era de Ultron.
Ainda Que Eu Andasse Pelo Vale da Estranheza
“Ainda que eu falasse as línguas dos homens e dos anjos, e não tivesse amor, seria como o metal que soa ou como o sino que tine.”
São Paulo, 1 Coríntios 13:1
De acordo com a teoria do vale da estranheza, à medida que robôs humanoides se tornam cada vez mais semelhantes aos humanos—alcançando uma semelhança entre 70% e 90%—a resposta emocional das pessoas tende a se tornar mais positiva. Contudo, existe um limiar crítico além do qual essa resposta positiva se transforma em desconforto e inquietação.
Quando a semelhança do robô humanoide com humanos acaba por ultrapassar esse limiar do ‘vale’, a resposta emocional das pessoas volta a se tornar positiva, aproximando-se dos níveis de empatia humano-a-humano.
A IA enfrenta um desafio semelhante. Assim como em Blade Runner, há aqueles que acreditam ser possível ajudar essas máquinas, confiando que a perícia do operador possa substituir o sopro da vida.
Como Narciso, se falhamos em nos reconhecer em algo, tendemos a vê-lo como feio e não civilizado. Talvez, Deus nos tenha feito imperfeitos e primitivos para nos dar a chance de desenvolver nosso livre arbítrio e exercitar nossa faísca divina. É por isso que escrever não é apenas juntar palavras, assim como arquitetura não é apenas empilhar tijolos.
Devemos resistir ao impulso secular e construtivista de interpretar respostas erradas como símbolos de valores errados; de pagar o preço que for preciso para reivindicar um estado idealizado de ‘ócio criativo’ que nos libertaria da ‘condição humana’ de uma vez por todas, resistindo à tentação de enviar um anti-Prometeu para renunciar ao fogo para nossos deuses máquina.
Acredito que a IA elevará o patamar da humanidade, mas possivelmente ao custo de limitar nosso horizonte. Parecemos estar tentando reconstruir a Torre de Babel, na esperança de engendrar uma linguagem comum que supere nossos erros de raciocínio e silencie nossa ‘expressão pura’, que seria a causa desses erros.
Minha aposta é que os arqueólogos do futuro estarão mais interessados em nossa ficção do que em nossos jornais, portais de notícias ou livros de história quando quiserem compreender nossa era. Isso porque não podemos forçar ‘cérebros’ estéreis a ter ideias, e cérebros estéreis não produzem boa ficção.
No entanto, esses mesmos cérebros estéreis podem acabar moldando nossa percepção do tempo e tornando nossos próprios cérebros determinísticos, como se esperaria de ovelhas elétricas, prontas para o abate no altar da tecnologia.
“‘The time has come,’ the Walrus said, ‘to talk of many things’…
(‘Chegou a hora’, disse a Morsa, ‘de falar de muitas coisas’…)”
Lewis Carroll, Through the Looking Glass
Nota: Eu publiquei este texto em inglês no ano passado, mas com tanta coisa acontecendo no Brasil, ainda não tinha me ocorrido traduzi-lo. Até que ontem recebi um texto do , excelente por sinal, intitulado “Será que os andróides sonham com carneirinhos lança-chamas?”. Recomendo a leitura e a assinatura da newsletter!
Entre para nosso grupo no Telegram:
Abaixo-Assinado pelo Impeachment do Moraes
Até agora, mais de 1 milhão e 508 mil pessoas já assinaram!
Meu livro “Primavera Brasileira” está disponível na Amazon (em versões eBook e física), um livro de frases com a crônica do processo eleitoral (por falta de palavra melhor) que o Brasil sofreu em 2022.
Excelente texto!