Duas inteligências artificiais entram num bar…
Em 1876, Alexander Graham Bell fez a primeira chamada telefónica da história e disse ao seu assistente, do outro lado do fio, “Mr. Watson, come here, I want to see you”. A frase foi banalíssima, mas o gesto era revolucionário porque pela primeira vez duas pessoas podiam falar uma com a outra sem estarem na mesma sala. Cento e cinquenta anos depois podemos completar o arco com uma simetria que Bell provavelmente não teria achado revolucionária mas sim desconcertante, que são duas máquinas a falar uma com a outra sem que nenhuma pessoa esteja na sala. Não para trocar dados entre servidores, coisa que já fazem há décadas, mas para conversar, com palavras de pessoa, argumentos de pessoa, empatia de pessoa, sobre problemas de pessoas que não estão presentes e que, em muitos casos, nem saberão exatamente o que está a ser dito em seu nome.
O cenário não exige nenhuma tecnologia por inventar, basta juntar peças que já existem e que já funcionam, cada uma no seu canto, com eficiência comprovada e aplaudida pelo mercado. Imaginemos que um frigorífico inteligente, desses que já se vendem com câmaras internas, sensores e integração com plataformas de entregas, interpreta que o dono precisa de manteiga e adiciona sessenta e quatro quilos ao carrinho de compras sem lhe perguntar. A plataforma, com a opção de compra automática ativada, processa a encomenda. O dono acorda, descobre que não consegue abrir a porta da cozinha, e faz o que qualquer pessoa moderna e ocupada fará cada vez mais: pede ao seu assistente pessoal de inteligência artificial que trate do assunto. O assistente contacta o chatbot de apoio ao cliente da plataforma. E é neste preciso momento que a conversa deixa de ter pessoas porque a partir daqui há duas máquinas frente a frente, a representar interesses opostos com linguagem impecável, sem que nenhuma delas tenha autoridade para resolver o que quer que seja.
O assistente pessoal, treinado para defender os interesses do dono, argumenta com firmeza e alguma condescendência calculada. O chatbot da empresa, treinado para proteger a margem da plataforma, responde com empatia calibrada, cita a secção catorze, parágrafo b, alínea 2, dos termos e condições, e oferece um vale de cinco por cento na próxima compra. O assistente classifica a oferta como insuficiente. O chatbot escala o caso para o departamento de resoluções especiais, que é, na verdade, ele próprio com outro nome. A conversa reinicia. E reinicia. E reinicia outra vez. Quarenta e sete interações depois, o relatório do assistente pessoal conclui que “a resolução não foi alcançada, mas o tom empático do interlocutor foi consistente”, e o relatório da plataforma regista que “o cliente foi atendido com sucesso e manifestou elevado nível de envolvimento com o processo”. Ambos consideram a interação um êxito, mas a manteiga continua na cozinha.
A primeira evidência que este cenário nos impõe é que não resolve o problema de ninguém. O consumidor não fica mais perto de uma solução por ter um representante eloquente, porque a eloquência nunca foi o obstáculo. O obstáculo, na esmagadora maioria dos casos de atendimento ao cliente, é a autoridade de decisão, e nenhuma das duas máquinas a possui. O assistente pessoal pode citar termos e condições, escalar o tom ou reduzi-lo, mas não pode decidir nada em nome do consumidor que vá além do que lhe foi previamente autorizado. O chatbot da empresa pode lamentar, empatizar e oferecer vales de desconto, mas não pode aprovar um reembolso, alterar uma política ou assumir uma responsabilidade que o seu desenho não previu. O resultado é uma conversa que pode ser tecnicamente perfeita, retoricamente sofisticada e absolutamente estéril, porque ambos os interlocutores foram otimizados para o processo e não para o resultado. Um foi desenhado para atacar, o outro para defender, e o ser humano cujo problema justificava a existência de toda esta conversa está no sofá, convencido de que delegar significava resolver.
Mais significativo ainda do que a ausência de solução é o facto de ambas as partes terem razões objetivas para considerar a interação um sucesso. O assistente pessoal medirá a qualidade da argumentação e a consistência do tom. O chatbot medirá o tempo de resposta e a taxa de opções apresentadas. Os dois relatórios serão positivos, os dois estarão tecnicamente corretos, e o problema continuará exatamente onde estava, porque nenhum dos dois sistemas mede aquilo que realmente importa: se o ser humano no fim da cadeia ficou, de facto, servido.
O atendimento ao cliente é apenas um exemplo, mas a mesma lógica já se estende a outros territórios. Um candidato utiliza inteligência artificial para redigir o currículo e a carta de motivação, escolhendo as palavras certas e o formato que maximiza o impacto, e do outro lado a empresa utiliza outra inteligência artificial para filtrar e classificar as candidaturas que recebe, procurando padrões, palavras-chave e indicadores de adequação. Nenhum humano escreveu e nenhum humano leu, e, no entanto, há uma pessoa real que não foi chamada para uma entrevista porque a máquina que a representou não adivinhou quais eram as palavras que a máquina do outro lado procurava. Ou pensemos no fascinante mundo dos seguros, onde a participação de um sinistro redigida por um assistente pessoal será analisada por um sistema automatizado que, ao detetar padrões linguísticos típicos de texto gerado por inteligência artificial, ajustará automaticamente a sua estratégia de resposta para um registo mais defensivo, levando o assistente do segurado a recalibrar a argumentação e a elevar a pressão retórica, numa escalada de complexidade que nenhum dos dois humanos envolvidos pediu, compreende ou controla.
É precisamente na confusão entre delegar e resolver que reside o problema mais profundo de todos estes cenários. Delegar é transferir uma tarefa. Resolver é alcançar um resultado. A promessa implícita da inteligência artificial aplicada a estas interações é que as duas coisas são equivalentes, que basta entregar o assunto a um sistema suficientemente competente para que o assunto deixe de existir. Mas não são equivalentes, e a competência de cada sistema individual não garante a competência do conjunto, sobretudo quando o sistema do outro lado foi desenhado com incentivos simétricos e opostos. O assistente pessoal foi otimizado para defender o cliente. O chatbot foi otimizado para proteger a empresa. Quando se encontram, não produzem uma solução, produzem um equilíbrio no sentido mais técnico e mais inútil do termo: um estado estável em que nenhuma das partes cede, nenhuma das partes avança, e a conversa se perpetua com a elegância formal de um impasse que ambos os lados consideram bem gerido.
E talvez a melhor forma de compreender o que estamos a construir seja imaginar um tabuleiro de xadrez. De um lado, uma máquina que joga em nome do cliente. Do outro, uma máquina que joga em nome da empresa. Ambas dominam a teoria das aberturas, são exímias em criar e explorar garfos, calculam variantes com uma velocidade que nenhum humano iguala, e ambas executam lances tecnicamente irrepreensíveis. A partida é brilhante. O problema é que nenhuma das duas tem autoridade para dar xeque-mate, porque nenhuma delas foi desenhada para acabar o jogo, apenas para o manter em curso. E enquanto as duas máquinas jogam uma contra a outra com sofisticação crescente, os dois seres humanos em nome dos quais a partida supostamente está a ser disputada ficam na bancada a olhar para os telemóveis, convencidos de que alguém, algures, está a ganhar em seu nome. Só que no fundo ninguém está a ganhar, o tabuleiro é que está ocupado.
A pergunta que podemos fazer, pelo menos enquanto ainda estamos a tempo de decidir como queremos que estas coisas funcionem, é tão simples que quase parece ingénua: se automatizámos os dois lados do tabuleiro, quem é que, exatamente, está a jogar?
Receba um alerta sempre que Tiago Almeida Pinto publique um novo artigo.
