Disegno di legge in materia di IA: se sono rose (solo) artificiali non fioriranno
di Marco Cramarossa
Il disegno di legge n. 1146, presentato dal Presidente del Consiglio dei ministri e dal Ministero della giustizia il 20 maggio 2024 e approvato dal Senato il 20 marzo 2025, rubricato “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, collegato alla manovra di finanza pubblica, sottolinea fin dall’inizio che l’intelligenza artificiale (IA), come ogni altro strumento creato dall’uomo, è per sua natura imperfetta, fallibile e condizionata da chi la sviluppa. Per questo motivo, se da un lato l’IA può offrire importanti benefici in molteplici ambiti, dall’altro comporta rischi potenziali, soprattutto per i diritti fondamentali delle persone, la sicurezza e la coesione sociale.
L’obiettivo della proposta normativa è allora quello di equilibrare opportunità e minacce. Si intende favorire uno sviluppo dell’IA che sia etico, sostenibile e conforme alla Costituzione, con attenzione al rispetto della dignità umana, alla trasparenza, all’inclusività e al controllo (comunque) umano in una visione antropocentrica del rapporto con l’IA. Se, come e quando questi obiettivi saranno raggiunti è tutta un’altra storia, non potendosi prescindere – medio tempore – da una analisi ragionata, pur nella sua sinteticità, dei contenuti essenziali della proposta normativa.
In particolare, il Disegno di legge, suddiviso in sei Capi e 28 articoli, può essere racchiuso a grandi linee in tre parti:
una prima parte stabilisce le finalità, le definizioni e i principi generali sull’uso dell’IA, e contiene misure immediate in settori chiave come la pubblica amministrazione, il lavoro, la giustizia e la sanità;
la seconda parte conferisce al Governo deleghe legislative per adeguare la normativa italiana al nuovo Regolamento europeo sull’IA (AI Act), anche in relazione all’introduzione di autonome fattispecie di reato;
la terza parte include le disposizioni finanziarie, dove si specifica che l’attuazione della legge non comporterà nuovi oneri per la finanza pubblica, ad eccezione di alcuni articoli particolari.
È fisiologico che il provvedimento contenga sia punti di forza che criticità e debolezze. Quanto ai primi, mette conto riconoscere che l’impostazione generale appare ambiziosa e strutturata. Infatti, il Ddl si propone di delineare una cornice normativa nazionale completa e organica sull’uso dell’IA, anticipando l’entrata in vigore del Regolamento europeo. È un’iniziativa significativa in termini di coordinamento normativo e strategico. Inoltre, sempre nel novero dei pregi, i principi guida (articoli da 1 a 6) appaiono ben delineati, atteso che includono principi di trasparenza, del controllo umano, della non discriminazione, di cybersicurezza, di inclusione, ed è ben allineato con i valori costituzionali e con il diritto dell’UE. Ancora, la settorializzazione appare efficace, essendo dedicati specifici articoli all’impiego dell’IA negli ambiti della:
sanità, disabilità e ricerca (articoli 7 e 8);
trattamento dei dati personali (articolo 9);
lavoro (articoli da 10 a 12),
professioni intellettuali (articolo 13),
PA e giustizia (articoli 14 e 15),
cybersicurezza (articolo 18).
È evidente che le previsioni aventi ad oggetto gli obblighi di identificazione dei contenuti generati da IA, la tutela del diritto d’autore (articolo 25) e specifiche norme penali per reati commessi per il tramite dell’IA (articolo 26) indicano una seria preoccupazione per l’impatto sociale e civile che l’intelligenza artificiale potrà avere (rectius ha).
Tuttavia, altrettanto evidenti sono le criticità e i punti di debolezza dati da:
· eccessiva ampiezza della delega (articoli 16 e 24), posto che il conferimento di corpose deleghe legislative al Governo (non solo per l’attuazione del regolamento UE, ma anche per l’introduzione di nuovi reati) lascia un potenziale vuoto di confronto parlamentare su temi molto delicati (come la responsabilità penale per uso illecito di IA, ad esempio);
· enfasi formale sui princìpi, ma vaghezza operativa. Il Ddl enuncia numerosi princìpi etici e giuridici, ma non chiarisce pienamente come garantirne l’attuazione concreta, ad esempio in ambito sanitario o giurisdizionale (dove il “supporto” dell’IA resta generico);
· norme penali potenzialmente ridondanti o discutibili, atteso che l’aggravante generica per “uso dell’IA” in molte fattispecie penali rischia di introdurre duplicazioni punitive, senza una chiara delimitazione del quando l’uso di IA rappresenti effettivamente una maggiore pericolosità;
· assenza di un bilancio trasparente sull’impatto economico. Infatti, sebbene il Ddl contenga una “clausola di invarianza finanziaria”, è poco credibile che un impianto normativo così vasto e trasversale non comporti costi significativi, specie sul piano della formazione, delle infrastrutture digitali e della sicurezza.
È un testo da migliorare nel passaggio parlamentare, soprattutto in ottica di chiarezza operativa, sostenibilità attuativa e garanzia di un controllo democratico più saldo.
Uno spazio è dedicato, come anticipato, anche alle professioni intellettuali, nel cui perimetro l’articolo 13 sancisce che “l’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera” (comma 1). Inoltre, per assicurare il rapporto fiduciario tra professionista e cliente, è stato previsto che “le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo” (comma 2). La preoccupazione del Governo sembra essere quella di evitare lo snaturamento delle professioni intellettuali e del rapporto fiduciario con i clienti, prevedendo (forse proprio alla luce di questo timore) percorsi di alfabetizzazione e formazione all’uso dell’IA, attraverso gli ordini professionali e le associazioni di categoria maggiormente rappresentative, con la “possibilità di riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di intelligenza artificiale” (articolo 24, comma 2, lett. f).
Previsioni che devono essere riempite di significato, sino ad allora “Timeo danaos et dona ferentes”.