Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.
Na sexta-feira passada, recebemos na nossa redação aqui na Agência Pública a visita do Eugênio Bucci, um dos intelectuais que mais têm refletido, nas suas colunas do Estadão, sobre os dilemas que enfrentaremos com a adoção desenfreada de ferramentas de inteligência artificial preditivas. Membro do Centro de Inteligência Artificial: IBM, USP e Fapesp, Bucci integra também o Conselho Consultivo da Pública e sempre nos provoca a pensar “fora da caixa”.
Ele discorreu (“divagou”, nas suas palavras) sobre algo de que já tratei aqui na newsletter: que, embora esse salto tecnológico possa ser comparado com outros momentos cruciais na história da humanidade, como a adoção da escrita, a imprensa e a criação do rádio, a ruptura desta vez deve ser ainda maior; nunca antes os seres humanos deixaram de ser os únicos sujeitos de linguagem. A linguagem, explicou, sempre foi a coisa fundamental que nos diferenciou dos demais seres, pelo menos para nós mesmos. Ela é um dos pilares da psicanálise, por exemplo, ou da antropologia, para explicar o que faz do humano, humano. E isso vai acabar, uma vez que temos robôs que são sujeitos de linguagem.
As consequências e implicações disso podem ser catastróficas ou não, disse Bucci; mas necessitam de atenção e reflexão. E é por isso que resolvi contar uma história que ajuda a explicar em parte qual pode ser o grande enigma que estamos a enfrentar. Vou contar a história da robô Eliza, a avó do ChatGPT.
Mas, antes, uma diferenciação importante: robôs não criam linguagem. O que fazem os programas de inteligência artificial preditivos é simular linguagem a partir de bases de bilhões de dados, buscando qual seria a melhor maneira – ouso dizer, a mais “simpática” – de responder a uma pergunta. Simular a empatia está codificado dentro do programa do ChatGPT.
E é isso que é perigoso, segundo o cientista da computação alemão Joseph Weizenbaum, que em 1966 criou o robô Eliza como parte de um projeto financiado pelo Pentágono no MIT, na época o grande centro de desenvolvimento de computação do mundo. O problema não é a inteligência das máquinas em si, mas como nós, seres humanos, reagimos a ela.
Aliás, Weizenbaum chamou a robô de Eliza justamente porque ela simula linguagem: Eliza Doolittle é uma personagem da peça de teatro Pigmalião, do irlandês Bernard Shaw, que, tendo uma origem pobre, consegue emular o sotaque e o vocabulário de uma duquesa para ser aceita na sociedade.
Com programação simples, Eliza foi o primeiro chatbot de que se tem notícia. A interação era assim: as pessoas escreviam perguntas ou frases e ela respondia, em texto. Versado em psicanálise, Weizenbaum decidiu que um excelente uso para ela seria transformar o robô em uma espécie de “psicanalista” que usasse as informações inseridas para devolver com alguma coerência ao interlocutor humano. A psicanálise parecia ser um campo apropriado justamente porque um analista pode ser lacônico, econômico e questionador, sem ele mesmo fornecer respostas. Então, por exemplo, uma pessoa escrevia “Os homens são todos iguais” e Eliza respondia: “Em que sentido?” ou “Você pode dar um exemplo concreto?”. A maior carga da conversa era o “paciente”, que entregava quase todas as informações na conversa.
Mas aí aconteceu o inesperado. As pessoas ficaram fascinadas por Eliza.
O experimento atraiu enorme atenção e chegou às páginas dos principais jornais, trazendo fama para Weizenbaum e garantindo a ele um trabalho fixo no MIT. No entanto, como contou o escritor Ben Tarnoff, que estuda a biografia de Weizenbaum, o experimento deixou o cientista profundamente abalado. Depois dele, sua carreira deu um giro e ele passou a ser um dos maiores críticos do uso da inteligência artificial.
O professor ficou horrorizado ao perceber que até mesmo sua secretária passava a consultar Eliza de maneira séria, como se fosse uma terapeuta mesmo. Certo dia, ela pediu para ficar a sós com o robô porque precisava conversar. No artigo científico em que analisa o experimento, ele descreveu esse fenômeno como algo novo, que poderia levar as pessoas a pensar que computadores têm o poder de fazer julgamentos com certa credibilidade. “Um certo perigo mora aí”, escreveu.
Para Ben Tarnoff, o que acontecia com Eliza – e o que já está acontecendo com o ChatGPT – é um mecanismo de “transferência”, segundo a definição de Sigmund Freud: o fato de as pessoas projetarem em um psicanalista suas próprias histórias, suas aspirações e seus medos.
Sem mencionar o termo, Weizenbaum analisou o que faz o mecanismo funcionar: a nossa história. Esta é a definição de humanos que o cientista passa a adotar: todo ser humano é formado por experiências de vida única, cresce entre humanos, aprende a amar entre humanos, e essa experiência nos permite formar valores e julgamentos humanos.
Um robô, por sua vez, não possui uma história humana e nunca poderá, portanto, entender plenamente o ser humano, ou tornar-se um.
Isso é importante para diferenciar o que são “valores” do que é cálculo matemático. Confrontando alguns dos principais cientistas do MIT da sua época, ele afirmava que “julgamento” é algo apenas possível de ser realizado por seres humanos – seres com uma história humana –, enquanto cálculo, ou decisões probabilísticas, é o máximo que uma máquina pode fazer.
Em um livro publicado em 1976, Weizenbaum argumentou ainda que, mesmo que alguns computadores consigam desempenhar certas funções, há tarefas que eles não deveriam ser encarregados de fazer. Tarefas, por exemplo, que incluem julgamentos. Que incluem decisões políticas. Que incluem valores e afetos.
Cinquenta anos depois, nós já estamos vivendo em um mundo em que robôs tomam uma enorme quantidade de decisões que deveriam ser próprias dos humanos. E não estou falando apenas de coisas distantes da nossa rotina, como algoritmos que ajudam juízes a determinar penas nos Estados Unidos ou bancos de dados de identificação facial. Estou falando de decisões sobre qual antigo amigo vai voltar a ter espaço na sua vida ou quem é a pessoa com quem você vai ter uma relação amorosa.
Mas qual é o problema disso? Aí vem, talvez, a grande sacada de Weizenbaum. Primeiro, isso limita o escopo de possibilidades, geralmente para as possibilidades mais usadas em termos de probabilidade. Mas o maior problema é que, ao equalizarmos “cálculo” com “julgamento”, nós mesmos estamos limitando a nossa percepção sobre o que é humano. Isso restringe, em vez de ampliar, nossa humanidade. Aos poucos, vamos nos tornando uma sociedade mais robótica e nós, como seres, mais parecidos com as máquinas.
A perspectiva – que é o reverso, e não o oposto, do que propõe Bucci – é assustadora. Mas me parece profundamente real. E o que Weizenbaum alertava há 50 anos é que, por conta dessa nossa propensão (uma “falha” humana?), nossa sociedade deveria ser estrita quanto às tarefas que devemos permitir que sejam desempenhadas por computadores. Simplesmente, limitar seu uso àquilo que requer matemática e cálculo, nunca julgamento ou razão.
O problema de fundo que Weizenbaum detectou na sua época é, no entanto, exatamente o mesmo que enfrentamos hoje. Já havia naquela época uma campanha ideológica que promovia a ideia de que a maravilha do cérebro humano estava exatamente em ser uma máquina superevoluída – e que, quanto mais os computadores puderem substituí-la, melhor. Outros professores do MIT, como John McCarthy, que cunhou o termo impreciso e difícil de definir “inteligência artificial”, promoviam essa ideia. Weizenbaum chamava esse grupo de pensamento de “intelligentsia artificial”, algo como “os artificialistas”.
É na ideologia que ainda aplaude as maravilhas do algoritmo, grosseiramente ignorando todos os seus malefícios, que está a base para que nossa sociedade, de certa maneira, emburreça. E hoje essa ideologia permeia tudo, os jornalistas que escrevem sobre tecnologia, os políticos que propõem leis, os apresentadores de TV, as adolescentes viciadas em TikTok.
Não, as máquinas não vão se tornar humanas, previa Weizenbaum; mas nós, sim, corremos um enorme risco de nos tornarmos cada vez mais como os computadores.