menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

O seu chatbot não é seu amigo

18 0
20.02.2026

Durante meses ouvimos a mesma garantia reconfortante: os grandes modelos de linguagem não “memorizam”, não “guardam”, não “aprendem consigo”. Apenas calculam probabilidades. Apenas preveem a próxima palavra.

Soava técnico. Soava tranquilizador. Soava conveniente. Mas começa a soar insuficiente.

Investigadores das Universidades de Stanford e Yale têm demonstrado que modelos de linguagem conseguem, sob certas condições, reproduzir excertos quase literais de dados de treino — incluindo texto identificável. Não apenas “padrões estatísticos”. Sequências concretas. Conteúdo específico. A distinção entre “aprender” e “copiar” torna-se menos filosófica quando o resultado é materialmente idêntico. E isso muda o debate.

Estamos a assistir à maior transferência voluntária de informação sensível da história recente. As empresas carregam bases de dados para gerar relatórios. Gestores inserem planos estratégicos para obter sínteses rápidas. Juristas colam contratos confidenciais para revisão........

© Jornal Económico