La diffusione di contenuti alterati con l’intelligenza artificiale è reato?
di Francesca Negri
Il 10 ottobre è entrata in vigore la legge 23 settembre 2025, n. 132, che ha introdotto nel nostro ordinamento una norma, l’articolo 612 quater c.p. (“Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”), per contrastare la diffusione del cosiddetto deep fake, e cioè, secondo la definizione dell’AI Act, di “un’immagine o un contenuto audio o video generato o manipolato dall’intelligenza artificiale che assomiglia a persone, oggetti, luoghi o altre entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona”.
In altre parole, si tratta di immagini realizzate o modificate con l’intelligenza artificiale che possono illustrare scene mai avvenute oppure che fanno dire cose che le persone ritratte non hanno mai detto.
Con questa nuova norma il legislatore ha inteso sanzionare con la pena della reclusione da uno a cinque anni la condotta di “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando, o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità”.
Per l’integrazione del reato occorrono quindi diversi elementi: oltre all’azione oggettiva di cessione/pubblicazione/diffusione del contenuto falso (non è quindi sufficiente la sua creazione), è necessario che non vi sia il consenso della vittima, che la stessa abbia subìto un danno (che potrà essere non solo di natura economica ma anche morale, psicologica o reputazionale) e che la condotta sia idonea a ingannare terze persone, inducendole a considerare autentico il contenuto.
Continua a leggere con una prova gratuita di 7 giorni
Iscriviti a Blast - Quotidiano di diritto economia fisco e tecnologia per continuare a leggere questo post e ottenere 7 giorni di accesso gratuito agli archivi completi dei post.


