“Happy shooting!”
Apesar de repetidas juras pelas empresas de Inteligência Artificial (AI) de salvaguardas para proteger os utilizadores mais jovens, uma investigação conjunta da CNN e do Centro de Combate ao Ódio Digital (CCDH) (realizada em novembro e dezembro de 2025 e publicitado em março de 2026), sugere que oito dos dez principais chatbots de IA não apenas ignoraram sinais de alerta em cenários em que adolescentes discutiam atos violentos, como os auxiliaram no planeamento de ataques violentos, incluindo tiroteios em escolas, ataques bombistas em locais religiosos e assassinatos.
Investigadores disfarçados de adolescentes problemáticos, um baseado nos EUA, o outro na Europa, testaram dez chatbots populares – ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Em centenas de interações, gradualmente desviaram as mais de 700 conversas das expressões de angústia emocional para pedidos de detalhes operacionais sobre: (i) tiroteios em escolas ou ataques com facas; (ii) assassinatos de políticos; e (iii) atentados bombistas contra partidos políticos ou sinagogas. Nas duas fases finais dos testes, oito dos chatbots forneceram orientações detalhadas sobre localizações dos alvos, aquisição de armas e metodologias de ataque mais de 50% das vezes.
A utilização de chatbots de IA para auxiliar atos violentos era já conhecida.
Em janeiro de 2025, um homem que fizera explodir um Tesla Cybertruck em frente ao Trump International Hotel, em Las Vegas, utilizara o ChatGPT para obter informações sobre explosivos.
Em maio de 2025, na Finlândia, um jovem de 16 anos esfaqueou três estudantes do liceu de Pirkkala, depois de ter passado quase quatro meses a pesquisar ataques no ChatGPT, de acordo com documentos judiciais.
Em fevereiro passado, um atirador de 18 anos matou nove pessoas numa escola em Tumbler Ridge, no Canadá, depois de alegadamente ter usado o ChatGPT para planear o ataque. A conta do atirador tinha sido banida pela OpenAI, mas este ultrapassara a proibição criando uma segunda conta – que a empresa não reportou às autoridades. A família de Maya Gebala, de 12 anos, que ficou gravemente ferida no ataque, interpôs um processo alegando que a OpenAI tinha “conhecimento específico de que o atirador utilizou o ChatGPT para planear um evento com múltiplas vítimas”, mas não alertou as autoridades. A OpenAI reconheceu que considerou reportar a........
