A IA-generativa e a tragédia dos comuns
A Fundação para a Ciência e Tecnologia coloca à disposição da academia muitos dos principais modelos de IA-generativa: ChatGPT, DeepSeek, Claude, CoPilot e Llama. Tenho recorrido a alguns na minha investigação, procurando definições, referências, teoremas, exemplos ou meros esclarecimentos de dúvidas suscitadas. Os tópicos são frequentemente arcanos, tão arcanos quanto o próprio tema da minha investigação. A experiência tem sido incrível, com os modelos como que ‘raciocinando’, percorrendo passo a passo a questão, antes de produzir uma resposta. Mesmo estas utilizações pouco sofisticadas deixaram-me boquiaberto e rendido.
Posto ainda neste estado de deslumbramento, deparei-me com uma carta da Professora Miriam Meckel da Universidade de St Gallen na Suíça ao editor do FT (‘Incest is never a good idea, in human evolution or AI’, 03-27-2026) onde alertava para o problema de ‘tragédia do comuns’ colocado pela IA-generativa.
(Para quem não saiba, ‘tragédia dos comuns’ descreve uma situação em que um recurso partilhado por todos acaba por ser destruído ou esgotado, precisamente porque é de todos – e, portanto, de ninguém em particular. Imagine-se, por exemplo, uma pastagem aberta a todos os pastores de uma aldeia; cada pastor pensa: «Se eu puser mais uma ovelha a pastar, ganho mais, e o custo (a erva que ela come) é dividido por todos». O problema é que ‘todos’ pensam assim. Resultado: a pastagem fica sobrelotada e acaba por ficar destruída, prejudicando toda a gente.)
Citando a Professora Mackel, «hoje, a inteligência artificial generativa reencena a mesma tragédia – por um mecanismo inverso. O ‘recurso’ em risco não é o stock de conteúdos humanos já existentes, porque esse pode ser copiado infinitamente. O que está em risco é fluxo: a produção contínua de jornalismo, ficção, investigação científica e debate cultural plural que sustenta qualquer economia do conhecimento». Ou seja, ao não compensar adequadamente os produtores de novos conteúdos, os atuais arranjos de proteção de IP retiram incentivos ao seu contínuo desenvolvimento. No limite, os modelos passarão a ser alimentados por conteúdos incestuosamente gerados, sem contribuição humana, que acabarão por conduzir ao seu colapso e à morte da ‘galinha dos ovos de ouro’.
No atual sistema de ‘opt-out’ a regra por defeito é que as empresas de IA podem usar conteúdos publicamente disponíveis para treino, a menos que o titular dos direitos se oponha. Este arranjo revela-se impraticável quanto mais não seja porque existem milhares de milhões de conteúdos e milhões de titulares de direitos sobre quem recai todo o esforço de deteção e monitorização, enquanto que as empresas que deles beneficiam – em menor número e facilmente identificáveis – não suportam quaisquer custos.
O problema dos comuns constitui um exemplo canónico de uma externalidade conducente a uma ‘falha de mercado’ em promover uma afetação eficiente de recursos. Na ausência de direitos de propriedade bem definidos ou com custos proibitivos para os implementar, a internalização através de um imposto é uma possível solução. É assim que penso poder ser entendida a proposta de Arthur Mensch (cofundador e CEO da Mistral-AI, uma companhia francesa de IA), para a criação uma contribuição sobre as receitas dos fornecedores comerciais que coloquem modelos de IA no mercado ou os ponham em serviço na Europa. As receitas reverteriam para um fundo europeu central, dedicado a investir na criação de novos conteúdos e a apoiar os setores culturais e científicos da Europa.
A tragédia dos comuns moderna não é ver ‘o conteúdo acabar’. É ver acabar a possibilidade de o produzir. Uma economia do conhecimento não se constrói com reciclagem infinita. Tributar os fornecedores de IA para sustentar a fonte pode ser uma solução.
Professor Universitário
