L’emanazione della Legge 23 settembre 2025, numero 132, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, segna un momento decisivo per l’ordinamento giuridico italiano, che si dota di un quadro normativo essenziale per affrontare le sfide di una tecnologia pervasiva e trasformativa.
Il legislatore ha scelto una strategia di innesto, evitando la creazione di un Codice penale autonomo per l’IA e preferendo piuttosto intervenire chirurgicamente sui codici esistenti (Penale, Civile, TUF).
Questa tecnica, volta a garantire una rapida reazione alla necessità di regolamentazione, pone tuttavia il sistema di fronte a immediate sfide di coerenza e interpretazione, specialmente nel delicato ambito del diritto penale, dove i concetti di dolo, colpa e imputabilità rischiano di essere messi in crisi dalla natura opaca e autonoma dei sistemi algoritmici.
È fondamentale, inoltre, inquadrare questa iniziativa nazionale in stretta armonia con i principi stabiliti dal Regolamento (UE) 2024/1689, noto come AI Act, garantendo che l’interpretazione e l’applicazione avvengano nel rispetto dei canoni europei di trasparenza, proporzionalità, sicurezza e non discriminazione.
La normativa italiana si configura, in questo contesto, come un elemento integrativo che specifica le ricadute sanzionatorie e i meccanismi di coordinamento istituzionale, rafforzando la responsabilizzazione di agenzie nazionali come AgID e ACN.
Il cuore della “innovazione” in sede penale risiede nell’introduzione di una nuova circostanza aggravante comune, inserita all’articolo 61 del codice penale, specificamente al numero 11-decies.
Tale previsione sanziona con un aumento di pena l’aver commesso il fatto “mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”.
La domanda che immediatamente si pone per gli operatori del diritto riguarda la definizione e l’applicabilità del concetto di “mezzo insidioso” in relazione a un’entità non umana.
Tradizionalmente, l’insidiosità implica l’uso di mezzi ingannevoli o subdolamente atti a sorprendere o depotenziare la capacità di difesa della vittima. Quando il mezzo è un sistema di IA, l’insidiosità non risiede tanto nell’intenzione diretta della macchina, quanto nella sua capacità mimetica e nella sua perfetta efficienza ingannatoria, che aumenta esponenzialmente la difficoltà di rilevamento e reazione da parte della vittima o degli organi di controllo.
L’applicazione di questa aggravante riporta al centro del dibattito la complessa questione dell’imputazione penale per le persone fisiche e la responsabilità amministrativa per gli enti.
Il legislatore delegato ha espresso la necessità di precisare i criteri di imputazione basandosi sul “livello effettivo di controllo dei sistemi”.
Questo approccio riconosce implicitamente che, in presenza di esiti emergenti o autonomi dell’IA, la responsabilità non può limitarsi al mero atto di attivazione del sistema.
Si profila, di conseguenza, uno spostamento del focus penale: dall’azione criminale eseguita dal sistema, alla fase di progettazione, training e deployment del sistema stesso.
Questo orientamento suggerisce un potenziale rischio dell’omissione nell’adozione delle misure di sicurezza necessarie, aspetto che lega indissolubilmente il diritto penale nazionale alle prescrizioni di sicurezza e gestione del rischio imposte dal Regolamento europeo sull’Intelligenza Artificiale.
Analoghe aggravanti, che riflettono la preoccupazione per la scalabilità e l’efficacia delittuosa dell’IA, sono state introdotte in settori nevralgici, come il diritto societario e finanziario, inasprendo la pena per il reato di false comunicazioni sociali (Art. 2637 c.c.) e manipolazione del mercato (Art. 185 TUF) se commessi con l’impiego di sistemi di intelligenza artificiale, portando la reclusione fino a sette anni e multe salate nel caso di reati finanziari.
Oltre all’aggravante comune, la Legge 132/2025 introduce una fattispecie di reato autonoma, l’Articolo 612-quater del Codice penale, rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. Questo reato, punito con la reclusione da uno a cinque anni, sanziona chiunque cagioni un danno ingiusto a una persona diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale, a condizione che siano idonei a indurre in inganno sulla loro genuinità.
Il fenomeno del deepfake rappresenta l’apice di questa manipolazione tecnologica. Si tratta di una tecnica di sintesi di immagini, video o audio basata sull’intelligenza artificiale, impiegata per generare contenuti falsificati o alterati con un grado di realismo che rende estremamente difficile distinguere il vero dal falso.
Il processo di creazione di un deepfake coinvolge in genere due codificatori automatici (autoencoder): il primo (encoder) analizza e riduce le immagini sorgente (ad esempio il volto di una vittima) a caratteristiche essenziali; il secondo (decoder) ricostruisce queste caratteristiche sovrapponendole su un’immagine o video bersaglio (target), creando così una manipolazione convincente (ad esempio scambiando volti o alterando le espressioni facciali).
I rischi connessi all’uso illecito dei deepfake sono sistemici e non si limitano alla sfera individuale.
Essi vengono sfruttati per la creazione di truffe elaborate, frodi di identità e manipolazione del mercato.
Ad esempio, nel settore finanziario, la capacità di impersonare dirigenti o clienti con voci e volti falsificati rappresenta una minaccia inedita, tanto che le perdite per frodi in questo settore potrebbero raggiungere cifre miliardarie.
Inoltre, i deepfake vengono utilizzati anche in contesti geopolitici per la diffusione di fake news e propaganda, destabilizzando organizzazioni e minando la fiducia pubblica nella verità oggettiva.
La loro crescente sofisticazione ha reso vulnerabili persino i sistemi di autenticazione biometrica, con attacchi che iniettano immagini o video sintetici (attacchi di injection digitale) in grado di ingannare i controlli di rilevamento della “vitalità” (liveness spoofing).
È proprio per affrontare questi rischi sistemici che l’Articolo 612-quater è stato introdotto.
È essenziale comprendere la portata innovativa di questa norma, il nuovo Articolo 612-quater si concentra sulla tutela dell’identità digitale e della fiducia pubblica contro la manipolazione tecnologica. L’oggetto materiale della condotta non è un contenuto reale sottratto, ma un contenuto sintetico o alterato.
I due elementi nodali per la sua configurabilità sono il “danno ingiusto” e l'”idoneità a indurre in inganno”.
Il concetto di danno ingiusto deve essere interpretato in senso ampio, includendo pregiudizi reputazionali, psicologici, finanziari o politici, in linea con l’ampia gamma di usi fraudolenti dei deepfake.
L’idoneità a indurre in inganno è un giudizio oggettivo che valuta la qualità tecnica della falsificazione e il contesto della diffusione. In questo ambito si manifesta una fondamentale sinergia tra la norma penale e gli obblighi regolamentari europei: l’AI Act impone requisiti di trasparenza e l’obbligo di etichettare i contenuti generati o manipolati dall’IA.
Se un contenuto non viene etichettato, contravvenendo alle disposizioni del Regolamento (UE), la sua “idoneità a indurre in inganno” aumenta esponenzialmente, facilitando l’integrazione del reato di cui all’Art. 612-quater. Si stabilisce, così, un meccanismo di feedback regolatorio: l’inosservanza degli standard amministrativi dell’AI Act aggrava il rischio di incorrere nella sanzione penale nazionale.
La procedibilità è a querela della persona offesa, salvo eccezioni qualificate (connessione con altri delitti procedibili d’ufficio, vittime vulnerabili o autorità pubblica).
L’introduzione di questa fattispecie è stato un intervento normativo necessario che indirizza con risolutezza le emergenze generate dall’IA evidenziando i punti di maggiore criticità (la frode digitale e l’aggravamento dei reati preesistenti), ma al contempo essa è strutturalmente frammentata e dipendente da futuri decreti delegati per la definizione dei criteri di responsabilità.
Il ricorso al diritto penale, invece di affidarsi esclusivamente agli strumenti civili o amministrativi, conferma la percezione del legislatore che il danno causato dall’IA maligna sia di natura sistemica e potenzialmente irreparabile.
La comunità legale è chiamata ad essere “protagonista” deve, quindi, prepararsi a un periodo di intensa elaborazione dottrinale e giurisprudenziale, che definirà l’impatto reale della normativa sulla responsabilità penale nell’era dell’Intelligenza Artificiale.





