L’Ai utilizzata per prevedere il comportamento criminale dei bambini: la proposta choc a Londra
Salva questo articolo e leggilo quando vuoi. Il servizio è dedicato agli utenti registrati.
Hai salvato un nuovo articolo
Trovi tutti gli articoli salvati nella tua area personale nella sezione preferiti e sull'app Corriere News.
L’Ai utilizzata per prevedere il comportamento criminale dei bambini: la proposta choc a Londra
Il ministero della Giustizia: «Con l'intelligenza artificiale possiamo andare ben oltre quello che facciamo attualmente. Ma lo faremo in modo etico»
Il ministro della Giustizia britannico David Lammy
Orwelliano è un aggettivo che ormai si spreca, ma il programma lanciato dal ministero della Giustizia britannico evoca i più cupi scenari di controllo sociale: stando a quanto riportato dal Times, il governo di Londra si affiderà all’Intelligenza artificiale per predire il futuro comportamento criminale fin da bambini, con l’obiettivo di mettere in campo adeguate misure di prevenzione.
È uno scenario fantascientifico che sembra ricalcare — ma in maniera ancora più tecnologica — la trama di «Minority Report», il film del2002 con Tom Cruise, dove una unità «Precrimine» è incaricata di individuare e sventare i delitti prima ancora che vengano commessi, arrestando i futuri colpevoli: in quel caso la tecnica era molto più ruspante (i chiaroveggenti), mentre oggi si è arrivati ad adoperare i traguardi piùavanzati della scienza dei computer. In pratica, il nuovo sistemaidentificherà i minori più a rischio di essere coinvolti nella criminalità utilizzando dati già esistenti, ma che al momento sono compartimentatifra diverse autorità e dipartimenti governativi.
«Stiamo guardando a come possiamo usare meglio l’Intelligenza artificiale — ha detto una fonte del governo al Times — essenzialmente per predire i criminali del futuro», anche se intendono farlo «in manieraetica e morale». Si tratta di assicurarsi che i dati del servizio sanitario, deiservizi sociali, della polizia, dei ministeri del Lavoro e dell’Educazione vengano usati efficacemente: «Adoperando l’Ai possiamo andare ben oltre quello che facciamo attualmente», sottolinea la fonte governativa. «Continuiamo a ricevere gli stessi profili criminali nel sistema giudiziario, ma interveniamo troppo tardi. Qui non si tratta di criminalizzare le persone, ma di assicurarsi che gli allarmi siano compresi meglio: i modelli basati sull’Ai possono farlo molto meglio».
Ricerche accademiche hanno evidenziato che delle tendenze possono emergere fin dai dati sanitari raccolti sui neonati: ma non è stato deciso se il programma del ministero della Giustizia si spingerà addirittura fino ai primi giorni di vita. In ogni caso, i bambini identificati dal sistema saranno oggetto di programmi di sostegno e prevenzione.
Il problema è che sono i minori passati per esperienze di affido, che soffrono di esclusione scolastica o di problemi mentali, oltre a quelli appartenenti a minoranze etniche, quelli che più di frequente diventano criminali: il 33% dei bambini che sono passati per l’affido finiscono per avere problemi con la legge, rispetto al 4% degli altri, così come igiovani neri finiscono in galera in misura sproporzionatamente superiore ai bianchi.
È per questo che è stato istituito un comitato di consulenza che aiuterà a stabilire standard etici e operativi, per evitare che l’uso dell’Intelligenza artificiale risulti in ghettizzazioni razziali o sociali. Come spiega Mark Mon Williams, il professore di psicologia dell’università di Leeds che lo guida, si tratta di «capire come salute ed educazione, assistenza sociale, sistema giudiziario e ambiente interagiscano tutti assieme e come dunque possiamo identificare bambini che si muovono appena sotto la soglia dipreoccupazione nel radar di differenti servizi».
17 febbraio 2026 ( modifica il 17 febbraio 2026 | 08:23)
© RIPRODUZIONE RISERVATA
Partecipa alla discussione
Il video dell'aggressione a un attivista di estrema destra a Lione
Le immagini riprese da un testimone che era alla finestra di un palazzo di fronte
