banner
Lar / Notícias / ‘Um certo perigo espreita aí’: como o inventor do primeiro chatbot se voltou contra a IA
Notícias

‘Um certo perigo espreita aí’: como o inventor do primeiro chatbot se voltou contra a IA

May 30, 2023May 30, 2023

O cientista da computação Joseph Weizenbaum esteve presente no início da inteligência artificial – mas também foi inflexível ao afirmar que nunca devemos confundir computadores com humanos.

Em 1966, um professor do MIT chamado Joseph Weizenbaum criou o primeiro chatbot. Ele o escalou para o papel de psicoterapeuta. Um usuário digitaria uma mensagem em uma máquina de escrever elétrica conectada a um mainframe. Depois de um momento, o “psicoterapeuta” responderia.

Usuário: Os homens são todos iguais.Chatbot: DE QUE MANEIRAUsuário: Eles estão sempre nos incomodando sobre uma coisa ou outra.Chatbot: VOCÊ PODE PENSAR EM UM EXEMPLO ESPECÍFICOUsuário: Bem, meu namorado me fez vir aqui.Chatbot: SEU NAMORADO FEZ VOCÊ VIR AQUIUser: Ele diz que estou deprimido a maior parte do tempo.Chatbot: Lamento saber que você está deprimido

Weizenbaum publicou esse exemplo de troca em um artigo de jornal que explicava como o chatbot funcionava. O software era relativamente simples. Ele analisou a entrada do usuário e aplicou um conjunto de regras para gerar uma resposta plausível. Ele chamou o programa de Eliza, em homenagem a Eliza Doolittle em Pigmalião. A florista cockney da peça de George Bernard Shaw usa a linguagem para produzir uma ilusão: ela eleva sua elocução a ponto de poder se passar por duquesa. Da mesma forma, Eliza falava de maneira a criar a ilusão de que entendia quem estava sentado diante da máquina de escrever.

“Algumas pessoas têm sido muito difíceis de convencer de que Eliza (com seu roteiro atual) não é humana”, escreveu Weizenbaum. Num artigo subsequente publicado no ano seguinte, ele foi mais específico: um dia, disse ele, sua secretária solicitou algum tempo com Eliza. Depois de alguns momentos, ela pediu a Weizenbaum que saísse da sala. “Acredito que esta anedota testemunha o sucesso com que o programa mantém a ilusão de compreensão”, observou.

Eliza não é exatamente obscura. Causou comoção na época – o Boston Globe enviou um repórter para sentar-se à máquina de escrever e publicou um trecho da conversa – e continua sendo um dos desenvolvimentos mais conhecidos na história da computação. Mais recentemente, o lançamento do ChatGPT renovou o interesse nele. No último ano, Eliza foi invocada no Guardian, no New York Times, no Atlantic e em outros lugares. A razão pela qual as pessoas ainda pensam em um software com quase 60 anos não tem nada a ver com seus aspectos técnicos, que não eram muito sofisticados mesmo para os padrões da época. Em vez disso, Eliza iluminou um mecanismo da mente humana que afeta fortemente a forma como nos relacionamos com os computadores.

No início de sua carreira, Sigmund Freud percebeu que seus pacientes continuavam se apaixonando por ele. Não era porque ele fosse excepcionalmente charmoso ou bonito, concluiu. Em vez disso, algo mais interessante estava acontecendo: a transferência. Resumidamente, transferência refere-se à nossa tendência de projetar sentimentos sobre alguém do nosso passado em alguém do nosso presente. Embora seja amplificado por estar na psicanálise, é uma característica de todos os relacionamentos. Quando interagimos com outras pessoas, sempre trazemos um grupo de fantasmas para o encontro. O resíduo da nossa vida anterior, e sobretudo da nossa infância, é a tela através da qual nos vemos.

Este conceito ajuda a compreender as reações das pessoas a Eliza. Weizenbaum tropeçou na versão computadorizada da transferência, com pessoas atribuindo compreensão, empatia e outras características humanas ao software. Embora ele próprio nunca tenha usado o termo, ele tinha uma longa história com a psicanálise que informou claramente como ele interpretava o que viria a ser chamado de “efeito Eliza”.

À medida que os computadores se tornaram mais capazes, o efeito Eliza só ficou mais forte. Veja como muitas pessoas se relacionam com o ChatGPT. Dentro do chatbot existe um “modelo de linguagem grande”, um sistema matemático treinado para prever a próxima sequência de caracteres, palavras ou frases em uma sequência. O que distingue o ChatGPT não é apenas a complexidade do grande modelo de linguagem que lhe está subjacente, mas também a sua voz assustadoramente coloquial. Como disse Colin Fraser, cientista de dados da Meta, o aplicativo é “projetado para enganar você, para fazer você pensar que está falando com alguém que não está realmente lá”.