Morte por IA
A guerra aberta entre o Governo dos EUA e a empresa de inteligência artificial (IA) Anthropic tem um potencial de destruição que transforma o conflito na Ucrânia num rodapé da História. O Pentágono já usa IA da empresa norte-americana para alimentar alguns dos sistemas, mas queria um acesso aprofundado, para o aplicar à vigilância em massa de cidadãos norte-americanos e armamento autónomo, com capacidade de matar sem supervisão. E foi neste ponto que a Anthropic fincou o pé e explicou que não o poderia permitir. Sob ameaça de ser totalmente excluída da lista de fornecedores do Governo dos EUA, como veio a acontecer, com o estatuto de "risco para a cadeia de abastecimento", ou de ser obrigada a fazer o que o Estado lhe pede, com recurso à lei pensada para tempos de guerra, a Anthropic não cedeu.
Ao bom estilo de uma ditadura, em que o controlo e a supervisão do poder são postos de lado, o vice-secretário da Defesa, Emil Michael, fez uma afirmação sinistra: "Têm de acreditar que as Forças Armadas vão fazer a coisa certa", até porque a lei não permite a utilização dos sistemas dessa forma. Não se sabe ao certo o que levou a empresa a tomar esta atitude defensiva, já que os seus produtos foram utilizados, por exemplo, na operação secreta para capturar Maduro, em Caracas, mas os responsáveis parecem alarmados e lembram que facilmente as condicionantes ainda existentes podem ser facilmente removidas pelo poder político.
Para além das capacidades de vigilância, o uso de IA para matar levanta questões éticas insanáveis. Se dermos a uma máquina o poder de decidir sobre a morte de alguém num cenário de guerra, quem pode ser responsabilizado? Até a guerra tem leis a serem cumpridas e uma máquina não pode ser levada a tribunal marcial. Quando a empresa que teria mais a ganhar com estes desígnios se arrisca a perder milhões de euros, para evitar que o Governo dos EUA use sem rédeas os seus sistemas, percebemos que algo sério está a acontecer.
