Dopo l’AI Act dell’UE, l’Italia avrà anche la sua legge nazionale sull’intelligenza artificiale.
La scorsa settimana il Senato ha approvato un disegno di legge di iniziativa governativa che mira a stabilire un quadro normativo proprio per l'intelligenza artificiale, cercando di bilanciare innovazione e responsabilità. Il Ddl passerà alla Camera per la sua definitiva approvazione.
Il Ddl ha avuto una “gestazione” di quasi un anno e non senza polemiche, specie da parte della Commissione Europea, la quale ha inviato un parere circostanziato all’Italia, suggerendo diverse modifiche in ragione delle incongruenze tra le disposizioni nazionali contenute nello stesso Ddl sull’intelligenza artificiale (AS1146) e l’AI Act, il Regolamento (UE) 2024/1689 adottato lo scorso giugno: troppe le sovrapposizioni normative ed eccessivamente restrittivo l’approccio italiano. Comunque, le disposizioni “italiane” andranno interpretate e applicate conformemente al Regolamento UE.
Il Ddl designa l'Agenzia per l'Italia digitale (AgID) e l'Agenzia per la cybersicurezza nazionale (ACN) come autorità competenti per l’intelligenza artificiale, anche se la Commissione UE ritiene che queste Agenzie (entrambe sostanzialmente collegate al Governo) non godano di piena indipendenza e non siano in grado di garantire un alto livello di autonomia e imparzialità. Restano fermi, in ogni caso, i poteri del Garante per la protezione dei dati personali.
Il provvedimento definisce i principi generali, introduce nuove disposizioni su sicurezza, copyright, sanità, lavoro e pubblica amministrazione, ma non troverà applicazione nei settori riferiti alla sicurezza nazionale, alla cybersicurezza ed alla difesa. Viene stanziato un miliardo di euro per progetti innovativi e industriali nel settore IA attraverso il Fondo di sostegno al venture capital.
Il Ddl garantisce primariamente la tutela dei diritti fondamentali, delle libertà individuali e del metodo democratico nelle istituzioni politiche.
Le finalità e l’ambito di applicazione della delega sono stabiliti dall’articolo 1.
L’articolo 2 specifica le definizioni di: “sistemi di intelligenza artificiale”, “dato”, e “modelli di intelligenza artificiale” a partire dal Regolamento UE.
I principi generali sono fissati dagli articoli 3, 4, 5 del Ddl e fanno riferimento, tra l’altro, a “un approccio antropocentrico”, ripetendo quanto previsto dall’AI Act.
Il Ddl vuole sostanzialmente garantire: trasparenza (gli utenti devono potere comprendere come i sistemi di IA funzionano e come prendono decisioni), privacy, sicurezza (i sistemi di IA devono venire progettati per essere sicuri e resistenti agli attacchi informatici), l’assenza di discriminazioni o comunque impatti sociali accettabili.
I sistemi di IA destinati all’uso pubblico dovranno essere ospitati su server situati in Italia, garantendo la sovranità e la sicurezza dei dati. Unica eccezione: l’uso in operazioni militari all’estero.
Il provvedimento introduce norme sulla protezione delle opere generate con IA. Le creazioni saranno coperte da diritto d’autore a condizione che vi sia un contributo intellettuale umano.
L’intelligenza artificiale nella sanità viene riconosciuta come strumento per migliorare diagnosi e cure, ma con limiti chiari:
non potrà condizionare l’accesso alle cure su base discriminatoria;
la decisione finale spetterà sempre ai medici;
i pazienti devono essere informati dell’uso dell’IA;
i sistemi devono essere affidabili e aggiornati per ridurre il rischio di errori.
Il Ddl stabilisce inoltre regole per l’impiego dell’IA nel settore lavorativo, puntando a:
migliorare le condizioni di lavoro e la produttività;
salvaguardare la dignità e la privacy dei lavoratori;
assicurare trasparenza e sicurezza nell’uso della tecnologia.
Sarà istituito un Osservatorio presso il Ministero del Lavoro per monitorare l’adozione dell’IA nel mondo del lavoro.
L’uso dell’IA nelle professioni intellettuali sarà limitato a funzioni di supporto ed i professionisti dovranno informare i clienti quando utilizzano strumenti di intelligenza artificiale.
L’adozione dell’IA nella PA dovrà rispettare criteri di trasparenza e tracciabilità ed il suo impiego sarà solo di supporto alle decisioni, che resteranno di competenza umana. Inoltre, saranno adottate misure tecniche e formative per garantire un uso responsabile dell’IA.
Nel settore giudiziario, viene stabilito che l’uso dell’IA deve essere limitato: le decisioni sull’interpretazione delle leggi, la valutazione dei fatti e delle prove resteranno esclusivamente dei magistrati, in modo da escludere che sia un algoritmo a decidere della validità delle prove o della colpevolezza di qualcuno.
Viene introdotto il reato di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”, nonché una nuova aggravante legata all’uso dell’IA nel compimento di determinati reati.
Il Ddl istituisce la “Strategia nazionale per l’intelligenza artificiale”, un documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della pubblica amministrazione in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale. All’istituendo Comitato Interministeriale per la Transizione Digitale (CITD) viene affidato il compito di aggiornarlo ogni due anni.
Il Dipartimento per la Trasformazione Digitale della Presidenza del Consiglio avrà il compito di monitorare l’attuazione della strategia, in collaborazione con l’AgID e l’ACN.
Si prevede, inoltre, una delega al Governo per adeguare l’ordinamento nazionale al Regolamento UE in materie come l’alfabetizzazione dei cittadini in materia di IA (sia nei percorsi scolastici che in quelli universitari) e la formazione da parte degli ordini professionali per professionisti e operatori.
Il Governo viene delegato ad adottare i decreti legislativi necessari per adeguare la normativa nazionale al Regolamento Ue, nonché per adeguare e specificare la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale.
L'approvazione del Ddl vuole essere un passo significativo verso un futuro in cui l'intelligenza artificiale possa essere utilizzata in modo sicuro e responsabile. La regolamentazione proposta mira a promuovere l'innovazione tecnologica, proteggendo al contempo i diritti e la sicurezza degli individui. Con il continuo avanzamento della tecnologia, sarà però fondamentale mantenere aggiornate le norme e adattarle ai sempre nuovi e rapidi sviluppi, perché - si ricorda - “il diritto insegue la tecnica”.