menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Intelligenza artificiale, gli ingegneri: “Servono norme chiare sul controllo”

10 0
07.04.2026

Appello degli ingegneri

Firenze, 7 aprile 2026 - Sull'intelligenza artificiale servono “norme chiare sul controllo e la responsabilità dei sistemi”. L'appello emerge dall'Ordine degli ingegneri della provincia di Firenze, affinché venga realizzata una legge nazionale che affidi agli ingegneri dell'informazione la responsabilità di controllo e validazione dei sistemi di Ai. “Serve subito – si fa presente dagli ingegneri - un intervento normativo nazionale che definisca in modo chiaro ruoli, responsabilità e competenze nelle attività di controllo e validazione dei sistemi di Ai. Non è solo una questione tecnica, ma di responsabilità, che va riconosciuta e regolata”. “Il punto centrale – dice Francesco Leoncino, coordinatore della Commissione Ingegneria dell’informazione dell’Ordine degli Ingegneri della provincia di Firenze – è stabilire chi risponde dell’affidabilità dei sistemi di intelligenza artificiale. Così come un progettista si assume la responsabilità di un edificio, allo stesso modo un ingegnere deve essere il riferimento per la correttezza e la sicurezza dei modelli. Non può essere una responsabilità generica o delegata a figure prive di competenze tecniche specifiche. Allo stesso modo, per quanto riguarda l’aderenza all’Ai Act, serve una verifica sostanziale, tecnica, che solo professionisti qualificati e iscritti all’Ordine sono in grado di garantire”. “Inoltre – sottolinea Leoncino – è importante superare l’equivoco che identifica l’Ia solo con piattaforme generaliste come Chatgpt. Le imprese italiane, oggi, possono sviluppare soluzioni locali, più sicure e controllabili, rafforzando anche la propria sovranità digitale e riducendo la dipendenza da grandi player internazionali. Anche su questo la garanzia offerta dagli ingegneri dell'informazione riguarda aspetti fondamentali come la sicurezza dei dati, la loro riservatezza e la verifica dell’attendibilità delle risposte”.  "Per questo – conclude Leoncino – è necessario un duplice impegno: da un lato gli ingegneri devono assumersi pienamente questa responsabilità, dall’altro la normativa deve riconoscerla in modo esplicito. Solo così si può garantire uno sviluppo dell’intelligenza artificiale sicuro, affidabile e realmente al servizio del sistema economico e della società".

© Riproduzione riservata


© La Nazione