All’inizio si è trattato solo di un racconto di fantascienza, partorito nel 1956 da Philip K. Dick e trasformato nel 2002 da Steven Spielberg nel film “Minority Report”, dove gli organi di polizia fanno ricorso ai Precog: tre soggetti dotati di poteri extrasensoriali di precognizione, per elaborare un sistema predittivo in grado di sventare i crimini prima che questi possano essere commessi.
Quel racconto di fantascienza si è progressivamente trasformato in realtà, perché l'applicazione di tecnologie predittive all'ambito della sicurezza pubblica è una delle frontiere più controverse dell'intelligenza artificiale contemporanea.
Negli ultimi anni, diversi Paesi stanno sviluppando strumenti basati su algoritmi e analisi dei big data per tentare di prevenire crimini violenti, ottimizzare l'allocazione delle risorse di polizia e identificare potenziali situazioni di rischio.
Gran Bretagna il discusso sistema HPP
Dal 2017 il GCHQ (Government Communications Headquarters), l'agenzia che cura la sicurezza delle comunicazioni e delle informazioni nel Regno Unito, ha avviato il progetto NDEC (National Data Exploitation Capability) che raccoglie, analizza e interpreta grandi volumi di dati per cercare di controllare il crimine organizzato, il terrorismo ed altre minacce alla sicurezza nazionale.
Una seconda iniziativa, nata come HPP Homicide Prediction Project (progetto di previsione degli omicidi) sotto il governo conservatore di Rishi Sunak, è proseguita dall'attuale esecutivo laburista di Keir Starmer, ma ribattezzata “Sharing Data to Improve Risk Assessment" (condivisione dei dati per migliorare la valutazione del rischio), per attenuare la percezione negativa.
È un programma che cerca di identificare individui altamente predisposti alla commissione di crimini attraverso l'analisi di dati personali di persone con precedenti penali, già note ai servizi di libertà vigilata e ad altre autorità, tra cui il Police National Computer, la polizia di Manchester e la polizia metropolitana di Londra. Tra i dati sensibili presi in considerazione vi sono la storia di salute mentale, dipendenze, autolesionismo, vulnerabilità e disabilità.
L'obiettivo dichiarato è quello di sviluppare modelli predittivi basati su algoritmi di intelligenza artificiale, ma il programma è oggetto di forti critiche da parte degli attivisti per i diritti civili e privacy, che lo definiscono “distopico” e "profondamente sbagliato" per l'uso di dati altamente sensibili e per il correlato rischio di rafforzare differenziazioni nel sistema giudiziario.
Il governo britannico afferma di utilizzare solo dati di persone con almeno una condanna ed all’esclusivo fine di migliorare la sicurezza pubblica tramite una migliore analisi del rischio. Tuttavia, gruppi come Statewatch e Amnesty International denunciano un possibile abuso del trattamento di dati sensibili ed un rafforzamento di discriminazioni sistemiche, specie contro minoranze etniche e comunità a basso reddito.
Germania: sistemi Precobs e KrimPro
In Germania la situazione è differente nei vari Länder, che applicano distinti sistemi predittivi. Così, mentre in Baviera e nel Baden-Württemberg dal 2014 si utilizza il Precobs (Pre Crime Observation System), Berlino fa ricorso al sistema KrimPro (Kriminalitäts-Prognose).
Il Precobs è stato elaborato dall'azienda svizzera IfmPt (Institut für musterbasierte Prognosetechnik): si concentra principalmente sui furti con scasso e reati contro la proprietà e si basa sulla teoria del "near-repeat", che suggerisce che determinati crimini tendono a ripetersi in aree urbane tipologicamente affini e geograficamente vicine.
Il KrimPro è stato invece sviluppato in house dal governo locale: con il supporto di Microsoft, esamina una gamma di reati più ampia, include anche le aree rurali, ed ha un approccio più ampio all'analisi dei dati, considerando fattori socioeconomici, urbanistici e demografici.
In entrambi i casi i sistemi si concentrano principalmente sulla previsione di "hotspot" criminali, piuttosto che sull'identificazione di potenziali autori di reato.
Francia: il versatile GeoLITICE
In Francia si è sperimentato PredPol, sistema sviluppato negli Stati Uniti, poi rielaborato e rinominato GeoLITICE (Géolocalisation de la Lutte Intelligente contre la Criminalité Émergente), con l'obiettivo di ottimizzare la prevenzione e l’intervento della gendarmeria nazionale. È un software di predizione criminale che combina dati storici di criminalità (furti, rapine, vandalismi, ecc.), analisi geospaziale e statistiche comportamentali, per individuare aree a rischio ed organizzare la pianificazione delle pattuglie sul territorio. Viene quindi adoperato anche come strumento di supporto nella pianificazione della sicurezza per grandi eventi o manifestazioni e nel coordinamento degli interventi di soccorso per calamità naturali.
Il contesto italiano: Giove e altri progetti
In Italia, la polizia predittiva ha visto susseguirsi vari progetti, tra cui XLAW, un modello predittivo la cui sperimentazione da parte della Polizia di Stato si è avviata a Napoli nel 2004, per estendersi successivamente ad altre città. II sistema è stato brevettato nel 2022 ed il software opera su base probabilistica, definendo modelli criminosi elaborati considerando dati socio-economico e logistici, anziché il numero dei reati o la personalità di un criminale. In pratica, adoperando le parole del suo produttore, si tratta di “un protocollo tecnico e metodologico configurato per generare e impiegare strategicamente allarmi Predittivi georeferenziati di possibili crimini, elaborati secondo un esclusivo modello previsionale di Deep Learning”.
Vi è poi KeyCrime, un software presentato a Milano nel 2007 e sviluppato da Mario Venturi, ex funzionario di quella Questura. A differenza di altri sistemi basati sull'analisi di "zone calde", KeyCrime si concentra sull'analisi delle serie storiche dei crimini per prevedere dove, quando e come potrebbero verificarsi reati seriali.
Infine, Giove è il sistema di polizia predittiva sviluppato dal Dipartimento di pubblica sicurezza del Ministero dell'Interno a partire dal 2020, basato sull'esperienza di KeyCrime.
Il software è stato sviluppato in collaborazione con l'Università "La Sapienza" e si basa su algoritmi che analizzano dati socioeconomici, geospaziali, temporali e statistiche criminali per identificare modelli e tendenze, con un focus particolare sui reati predatori come furti e rapine, al fine di elaborare serie criminali, collegando reati commessi in luoghi e tempi diversi, al fine di prevedere quelli che potrebbero essere compiuti dagli stessi soggetti.
Giove utilizza tecniche avanzate di machine learning e analisi dei big data per elaborare diverse tipologie di informazioni: l’algoritmo elabora questi dati per generare "heat maps" (mappe di calore), che evidenziano le aree con maggiore probabilità di attività criminale in determinati intervalli temporali, generalmente con previsioni a 24-48 ore.
Secondo quanto riportato dalla Direzione Centrale Anticrimine della Polizia di Stato, l'uso di Giove si è progressivamente esteso dalla fase pilota a una copertura sempre più ampia del territorio nazionale, arrivando nel 2023-2024 a tutte le provincie italiane. Il sistema risulta attualmente utilizzato dalle Questure, da Commissariati di P.S. e da alcune stazioni dei Carabinieri attraverso protocolli di collaborazione interforze.
I possibili limiti derivanti dallo AI ACT
Lo sviluppo di strumenti di previsione criminale rappresenta un'area di innovazione tecnologica con potenziali benefici per la sicurezza pubblica, ma anche con significativi rischi etici e legali.
Se i sistemi place-based (come Giove) sembrano sollevare meno preoccupazioni rispetto ai sistemi person-based (come quello britannico), entrambi richiedono una rigorosa supervisione, trasparenza e conformità con i principi fondamentali dei diritti umani e dello stato di diritto, per contrastare il rischio che l’analisi continua di dati eterogenei e generati in tempo reale, finisca col ledere la privacy e le libertà fondamentali, determinando forme di discriminazione tra vari stati sociali.
L’articolo 5 dell’AI Act vuole limitare la “messa in servizio” e la “immissione sul mercato” di strumenti di AI che prevedano la probabilità che un soggetto commetta un crimine basandosi esclusivamente su profilazione o sulla valutazione di elementi della sua personalità.
L’utilizzo è però consentito laddove i sistemi si basino su elementi oggettivi, su dati verificabili e direttamente connessi ad attività criminali; il che significa ammetterne l’uso per prevenire ipotesi di recidiva e sull’analisi di dati geospaziali.
La tematica è amplissima, in continua evoluzione, e da monitorare costantemente, per non ritrovarci in futuro a pronunciare le parole di Doc Emmett Brown: "Grande Giove"!!