Anthropic fa causa agli Usa. Ma l’AI è già l’arma segreta /
Il segretario della Difesa Usa Pete Hegseth
Per approfondire:
Articolo: Torna la paura delle armi al fosforo bianco, cosa sono e perché sono vietate (ma Israele è accusata di utilizzarle)Articolo: Come e quando si entra in guerra? Il Trattato Ue, le clausole Nato e i patti per l’uso ‘attivo’ delle basi americane in ItaliaArticolo: Perché l'attacco di Usa e Israele all’Iran ha violato il diritto internazionale: la spiegazione del prof della BocconiArticolo: La guerra non è una bella notizia per le Big Tech Usa: perché Trump rischia un effetto boomerangRoma – L’intelligenza è artificiale ma ormai anche bellica. Nonostante la querelle nata negli Stati Uniti, che ha portato alle dimissioni della responsabile del dipartimento di robotica di OpenAI, Caitlin Kalinowski, a seguito della decisione dell’azienda di collaborare con il Pentagono per la fornitura di tecnologie legate alla sicurezza nazionale, l’IA è sempre più integrata nell’apparato militare; tanto da essere utilizzata per analizzare dati di intelligence e simulare scenari, contribuendo alla pianificazione dei bombardamenti contro la Repubblica islamica. Le dimissioni di Kalinowski sono però solo uno degli ultimi sviluppi legati alla vicenda dell’uso dell’intelligenza artificiale nell’ambito della difesa.
Approfondisci:
Anthropic respinge l’ultimatum del Pentagono: “No all’uso militare senza limiti della nostra intelligenza artificiale Claude”
Il caso, infatti, era cominciato quando l’amministrazione di Donald Trump aveva deciso di interrompere i rapporti con la società Anthropic, i cui sistemi sono integrati nei servizi dell’esercito statunitense. Una rottura dovuta alla mancata rimozione di alcune limitazioni all’impiego delle sue tecnologie nello sviluppo di armi autonome e nella sorveglianza di massa, che ha portato il Pentagono a classificare Anthropic come “supply-chain risk”, ovvero un rischio per la catena di approvvigionamento americana. Una decisione che ha visto, nelle ultime ore, la stessa Anthropic fare causa al Pentagono.
Approfondisci:
Come e quando si entra in guerra? Il Trattato Ue, le clausole Nato e i patti per l’uso ‘attivo’ delle basi americane in Italia
Al netto delle questioni giudiziarie, è però sempre più evidente l’utilizzo dell’intelligenza artificiale nelle operazioni americane. “Sembrerebbe che l’amministrazione Usa – commenta Alessandro Marrone dell’Istituto Affari Internazionali – abbia sostanzialmente chiesto ai fornitori di concedere più margine di manovra all’intelligenza artificiale nel decidere sull’uso dei sistemi d’arma. Una visione che punterebbe a rimuovere alcuni limiti all’IA e a darle maggiore spazio nella fase decisionale”. Un cambiamento significativo rispetto all’uso tradizionale di uno strumento che anche nella guerra in Iran starebbe operando sia nella fase di attacco sia in quella di difesa.
Approfondisci:
La guerra non è una bella notizia per le Big Tech Usa: perché Trump rischia un effetto boomerang
Un missile iraniano inesploso a Qamishli, nell'area est della Siria
L’intelligenza artificiale è infatti fondamentale per processare i dati, sulla base di algoritmi predefiniti e database, e fornire rapidamente una serie di informazioni utili per colpire un determinato bersaglio. Per quanto riguarda la difesa aerea missilistica integrata, invece, l’IA non solo elabora i dati, ma simula, tramite un calcolo probabilistico, una serie di scenari per indicare, per esempio, a quale altitudine e in quali coordinate intercettare un missile con minori danni collaterali.
“Più margine di autonomia viene lasciato all’intelligenza artificiale – continua Marrone – e più gli interventi saranno tempestivi e rapidi rispetto alla controparte. Allo stesso tempo, una maggiore autonomia riduce il controllo dell’operatore umano. E questo è un problema anche etico, perché è necessario capire se l’individuo potrà essere parte attiva di quanto proposto dall’intelligenza artificiale o se, per esempio, potrà limitarsi solo a bloccare una decisione già presa dalla macchina”. “Probabilmente – conclude Marrone – dobbiamo aspettarci, da un lato, uno sviluppo crescente dell’autonomia dei droni e, dall’altro, la formulazione di scenari che lascino all’ufficiale la possibilità di attivare un determinato sistema d’arma”.
Approfondisci:
Perché Trump tende la mano a Putin
WhatsAppFacebookXPrint
© Riproduzione riservata
Tag dell'articolo
IranGuerra Medio OrienteIntelligenza artificialeArmi