menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Anthropic, ultimatum del Pentagono: «Nessun limite etico sull’uso militare dell’Ai». Washington convoca Amodei sui vincoli di Claude

16 0
26.02.2026

«Claude» è il modello più avanzato nei sistemi militari segreti. Ma Anthropic pone due paletti: no a killer robot totalmente autonomi, no a sorveglianza di massa. Washington replica: il governo non accetta vincoli

Dario Amodei, creatore di Anthropic

Uno straordinario successo: il modello di intelligenza artificiale più efficace e potente per impieghi professionali, industriali, governativi e anche militari. Lodi per le grandi capacità di Anthropic e anche per le regole etiche che si è data: l’impegno a evitare usi violenti e incontrollati della sua tecnologia. E ora, in pochi giorni, Dario Amodei, fondatore, mente tecnologica e capoazienda di Anthropic, passa dall’altare alla gogna del Pentagono proprio a seguito del suo successo e dei suoi scrupoli morali: rientrato dalla trionfale conferenza di New Delhi sull’intelligenza artificiale dove, davanti al premier Narendra Modi, è stato la star assoluta tra i capi dei giganti - da Sundar Pichai di Alphabet-Google a Sam Altman di OpenAI - Amodei lunedì è stato convocato al Pentagono dal ministro della Guerra, Pete Hegseth.

Il confronto al Pentagono

In una riunione molto tesa alla quale hanno partecipato anche viceministri, responsabili dei dipartimenti delle tecnologie degli approvvigionamenti militari e generali, Hegseth gli ha dato un vero e proprio ultimatum: rinunciare entro domani, venerdì, a porre qualunque limite etico all’uso della sua tecnologia da parte dei militari o andare incontro a penalizzazioni molto pesanti.

Anthropic, il Pentagono contro l’Ai dei fratelli italiani Amodei: a rischio un contratto da 200 milioni

di  Maria Elena Viggiano

Ecco cosa rischia la creatura dei fratelli italiani Amodei

Nell’ordine crescente delle minacce: cancellazione dei contratti da 200 milioni di dollari del Pentagono con Anthropic che, insieme a Palantir, ha istallato i suoi modelli di intelligenza artificiale su tutti i sistemi informatici classified, cioè segreti, delle forze armate. Oppure un ricorso al Defense Production Act, una legge del 1950 varata durante la guerra di Corea, per obbligare l’azienda a sviluppare modelli di intelligenza artificiale su misura per le esigenze militari. O, addirittura, una condanna di Anthropic all’isolamento dichiarandola supply chain risk: in pratica un’azienda pericolosa come quelle cinesi, da evitare come fornitrice. Tutte le imprese che vogliono essere fornitrici dei militari, e forse di tutti gli enti governativi, dovrebbero dimostrare di non usare tecnologia Anthropic.

Anthropic? Troppo bravi 

Per l’azienda, già arrivata a 14 miliardi di fatturato e che nell’ultimo round di raccolta tra gli investitori privati è stata valutata 380 miliardi, perdere un contratto da 200 milioni non sarebbe un dramma. Ma lo scenario non è, evidentemente, questo. Amodei è schiavo dell’eccellenza della sua tecnologia come ha ammesso a denti stretti col sito Axios un alto esponente del Pentagono prima del meeting: «L’unico motivo per il quale continuiamo a discutere con questa gente è che abbiamo bisogno di loro, ora. Il problema è che sono troppo bravi».

Solo Musk si è detto pronto ad accettare tutte le richieste del Pentagono

In altre parole: l’ultima versione di Claude, il modello di Ai di Anthropic, è talmente più avanzato per gli impieghi specializzati che servono alle forze armate da essere stato scelto e inserito come unica tecnologia embedded in tutti i sistemi informatici militari classified. Il Pentagono usa anche le Ai dei tre concorrenti di Anthropic, Google, OpenAI e xAI, ma sono modelli meno avanzati. Vengono usati solo per impieghi non classified. Ora Hegseth sta chiedendo a queste imprese se sarebbero in grado di migliorare i loro prodotti fino al punto di poter sostituire Anthropic, ma pare ci siano limiti tecnologici (nessuno ha un software di guida autonoma dei droni, controllo e selezione dei bersagli come quello possibile con l’Ai di Amodei) e di certificazione classified. Anche se Google e OpenAI hanno già ammainato da tempo le bandiere etiche, solo Musk si è già detto pronto ad accettare tutte le richieste del Pentagono, col quale lunedì la sua xAI ha firmato un contratto classified. Un Musk che, al solito, non teme di contraddirsi (era stato il primo a lanciare l’allarme contro i killer robot) ma non dispone ancora di una tecnologia adeguata. E il Pentagono vuole evitare un’operazione ciclopica come quella di smontare il software Anthropic da tutti i suoi sistemi: per questo minaccia il ricorso a una legge da tempo di guerra.

Le due regole etiche di Amodei sull’Ai da guerra

Ecco, allora, l’ultimatum che mette Amodei in una condizione difficilissima. Continua a dire di voler fare di tutto per aiutare la difesa nazionale, elogia il Pentagono per il quale ha rimosso tutte le regole di Anthropic, salvo due: non usare Claude per sviluppare armi totalmente autonome o per sistemi di sorveglianza di massa della popolazione. Ma Hegseth replica che il governo non accetta nessun vincolo da un’azienda. Amodei potrebbe rivolgersi a un tribunale ipotizzando un abuso di potere, ma andrebbe incontro a conseguenze politiche ed economiche gravi. Alcuni esperti ritengono, poi, che le sue carte siano deboli anche giuridicamente: quelli forniti da Palantir e Anthropic al Pentagono sono già sistemi costruiti su misura per impieghi bellici.

L’allarme di Pignataro, l’uomo più ricco d’Italia: «Stiamo insegnando all’AI come renderci superflui»di Francesco Bertolino

L’allarme di Pignataro, l’uomo più ricco d’Italia: «Stiamo insegnando all’AI come renderci superflui»di Francesco Bertolino

Meta, accordo da 100 miliardi per i chip di Amd per potenziare l’Ai (e Zuckerberg entra come socio al 10%)di Redazione Economia

Meta, accordo da 100 miliardi per i chip di Amd per potenziare l’Ai (e Zuckerberg entra come socio al 10%)di Redazione Economia

Anthropic, il Pentagono contro l’Ai dei fratelli italiani Amodei: a rischio un contratto da 200 milionidi Maria Elena Viggiano

Anthropic, il Pentagono contro l’Ai dei fratelli italiani Amodei: a rischio un contratto da 200 milionidi Maria Elena Viggiano

Meno lavoro e più profitti con l’Ai. Ma Amodei di Anthropic promette: «Pagheremo i dipendenti anche se non lavorano più»di Francesco Bertolino

Meno lavoro e più profitti con l’Ai. Ma Amodei di Anthropic promette: «Pagheremo i dipendenti anche se non lavorano più»di Francesco Bertolino

Anthropic, i fratelli italiani dell’Ai sfidano Sam Altman perché il loro algoritmo e più preciso di ChatGptdi Maria Teresa Cometto

Anthropic, i fratelli italiani dell’Ai sfidano Sam Altman perché il loro algoritmo e più preciso di ChatGptdi Maria Teresa Cometto

Nuova app L'Economia. News, approfondimenti e l'assistente virtuale al tuo servizio.

Iscriviti alle newsletter de L'Economia. Analisi e commenti sui principali avvenimenti economici a cura delle firme del Corriere.

26 febbraio 2026 ( modifica il 26 febbraio 2026 | 10:48)

© RIPRODUZIONE RISERVATA

Partecipa alla discussione


© Corriere della Sera