menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Intelligenza artificiale open source: libertà o scaricabarile?

18 0
24.02.2026

Salva questo articolo e leggilo quando vuoi. Il servizio è dedicato agli utenti registrati.

Hai salvato un nuovo articolo

Trovi tutti gli articoli salvati nella tua area personale nella sezione preferiti e sull'app Corriere News.

Intelligenza artificiale open source: libertà o scaricabarile?

Milioni di server esposti e nessun responsabile indentificabile: un rischio sistemico per la cybersicurezza globale

Un rapporto di SentinelLabs e Censys (gennaio 2026) ha mappato per la prima volta l’ecosistema globale dell’AI open source, quel modello di sviluppo in cui modelli di intelligenza artificiale, pesi e codice sono resi pubblicamente accessibili e modificabili. Il rapporto è incentrato sulle implicazioni di cybersicurezza, ma io credo che il suo valore più significativo sia altrove: rivela un problema di governance strutturale dell’AI open source. I dati sono precisi. Il rapporto ha rilevato 7,23 milioni di contatti con oltre 175.000 server che eseguono Ollama — un runtime per modelli locali — distribuiti in 130 Paesi attraverso 4.032 reti autonome. Tutti risultano pubblicamente accessibili senza autenticazione, privi di sistemi di monitoraggio e, in molti casi, senza un responsabile identificabile. Dal punto di vista della cybersicurezza, si tratta di un ecosistema vulnerabile. Il 48% dei server è configurato per eseguire azioni su sistemi esterni, caratteristica che li trasforma in potenziali vettori di attacco. In questo ecosistema, l’infrastruttura è massimamente decentralizzata, distribuita tra cloud providers, connessioni residenziali e reti aziendali in cinque continenti; mentre la dipendenza dai modelli è fortemente concentrata. Tre sole famiglie — Llama, Qwen2 e Gemma2 — dominano l’adozione senza alternative competitive significative. Un numero ristretto di soggetti — Meta, Alibaba, Google — prende le decisioni di rilascio, ne raccoglie i vantaggi reputazionali e commerciali, ma si colloca al di fuori della catena di responsabilità operativa. Gli utenti adottano quei modelli, spesso senza competenze tecniche adeguate e senza consapevolezza dei profili di rischio. Beneficiano dell’accesso gratuito, ma assumono interamente le esternalità di sicurezza. Si tratta di una classica esternalizzazione del rischio, che qui opera su scala sistemica. La risposta regolativa europea facilita esattamente questa asimmetria. In base all’AI Act e alle linee guida della Commissione sui modelli di uso generale (luglio 2025), i modelli open source beneficiano di esenzioni sostanziali quando soddisfano tre condizioni: rilascio senza monetizzazione diretta, disponibilità pubblica di pesi e architettura, licenze genuinamente permissive. Llama, Qwen2 e Gemma2 soddisfano queste condizioni.

Ne segue che i providers non sono soggetti a obblighi normativi sostanziali rispetto all’ecosistema che i loro rilasci popolano, salvo in doveri residuali o casi legati ad applicazioni ad alto rischio. Chi decide rilascia; chi adotta ne risponde. La governance dell’Unione europea codifica questa dissimmetria anziché correggerla. Un risultato problematico, che acquisisce una rilevanza strategica se si considera il peso che l’AI open source ha già nell’ecosistema globale e il suo potenziale per l’autonomia tecnologica europea. L’open source rappresenta una traiettoria credibile per ridurre la dipendenza da infrastrutture proprietarie extraeuropee. Ma ignorare le vulnerabilità strutturali di questo modello non lo tutela: lo espone a dinamiche che nel lungo periodo ne compromettono la credibilità istituzionale e ne limitano la diffusione in contesti regolati. Una governance adeguata è nell’interesse diretto di chi crede nel modello aperto. La misura più urgente riguarda la responsabilità post-rilascio. Occorre un framework di responsabilità graduate, non per vietare i rilasci open-weight, ma per garantire che i soggetti che assumono decisioni con implicazioni sistemiche per la sicurezza ne sopportino una quota proporzionale del rischio risultante. L’analogia con il settore farmaceutico è pertinente: la responsabilità del produttore non si esaurisce con l’immissione in commercio, ma include obblighi di sorveglianza post-marketing e interventi anche in assenza di controllo sull’uso finale. Un principio analogo dovrebbe strutturare la responsabilità dei provider di modelli fondazionali e definire obblighi di monitoraggio post-rilascio e dell’ecosistema, notifica delle vulnerabilità identificate, aggiornamento dei modelli in caso di rischi accertati. Del resto, esistono responsabilità per chi progetta e popola l’ecosistema digitale, una governance appropriata deve prevedere misure per assolverle.**Mariarosaria Taddeo è docente di Digital Ethics and Defence Technology a Oxford e Defence Science and Technology Fellow all’Alan Turing Institute

Nuova app L'Economia. News, approfondimenti e l'assistente virtuale al tuo servizio.

Iscriviti alle newsletter de L'Economia. Analisi e commenti sui principali avvenimenti economici a cura delle firme del Corriere.

© RIPRODUZIONE RISERVATA

Partecipa alla discussione

Il sesto senso digitale di Leonardo: con l’AI in elicottero (per il soccorso dei civili)

Le guide per approfondire i temi più discussi

Compravendita immobili

Fattura elettronica. Cos’è e come funziona.

Criptovalute. Quali sono e come funzionano.

Dubbi su casa, tasse, risparmio, pensioni? Leggi le risposte e scrivi la tua domanda

Opzione tassazione ordinaria per riscatto fondo pensione

Risponde Giuseppe Moschella

Risponde Lorenzo Meroni

Obbligo di cessione all'acquirente?

Risponde Lorenzo Meroni

Ho comprato l’auto da mia madre, posso avere la sua classe di merito? Su «Chiedi all’esperto»

di  Redazione Economia


© Corriere della Sera