• Richiesta Consulenza Legale

  • Should be Empty:
  • Tariffe

Notizie Giuridiche

» Il nuovo reato: il Deepfake
14/02/2026 - Alfredo Cirillo


La diffusione delle tecnologie di intelligenza artificiale generativa ha introdotto il pericoloso e sempre più perfezionato fenomeno del c.d. "deepfake", ovvero la creazione di contenuti multimediali (video, immagini, audio) talmente realistici da ingannare sulla loro autenticità, attribuendo a persone reali parole o azioni mai compiute.

È evidente che un fenomeno del genere apre nuovi scenari in materia di pregiudizio per la reputazione individuale e la sicurezza pubblica

La Legge n. 132 del 23 settembre 2025 risponde a questa problematica, introducendo una specifica fattispecie penale e un'aggravante comune entrambe volte a sanzionare l'uso illecito di tali sistemi.

L'art. 612-quater c.p.

Il fulcro dell'intervento normativo è costituito dall'introduzione, tramite l'art. 26 della L. 132/2025, dell'articolo 612-quater c.p., rubricato "Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale".

La norma punisce con la reclusione da uno a cinque anni:

«Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità».

L'analisi della disposizione rivela una struttura complessa, che combina elementi di condotta, di evento e di pericolo concreto, la cui interpretazione e applicazione pratica sollevano già diverse questioni.

Innanzitutto, va evidenziato che la fattispecie de qua si prefigge di tutelare «una persona». Dunque, la medesima condotta sanzionata dalla norma non ha valenza criminosa se rivolta a danneggiare un ente collettivo e dunque un soggetto diverso dall'individuo, la cui reputazione, invece, il Legislazione ha inteso proteggere.

L'aggravante comune

Tali profili delittuosi possono, sempre in ragione della Riforma di cui alla citata Legge n. 132 del 23 settembre 2025, essere ricompresi nella (parimenti) nuova aggravate comune oggi presente nell'art. 61 c.p.:

«11-undecies) l'avere commesso il fatto mediante l'impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato».

In secondo luogo, la condotta criminosa punita si concretizza nella «cessione, pubblicazione o diffusione» del contenuto manipolato, sì da ricomprendere un vastissimo campo di comportamenti e modalità di circolazione, purché idonei ad integrare il pregiudizio tutelato.

Oggetto del reato

L'oggetto del reato si sostanzia in «immagini, video o voci falsificati o alterati» specificamente «mediante l'impiego di sistemi di intelligenza artificiale».

Tale precisazione, dopo l'individuazione nella «persona» del soggetto da proteggere, costituisce la seconda limitazione atta a circoscrivere la fattispecie di reato, consentendo, pertanto, di escludere dal crimine di cui trattasi le c.d. manipolazioni tradizionali (es. fotoritocco non basato su IA, etc.).

L'art. 612-quater c.p. non chiarisce cosa debba intendersi per «sistemi di intelligenza artificiale». Tuttavia, l'articolo 1, comma 2, della Legge n. 132 del 23 settembre 2025 stabilisce in modo inequivocabile il principio di conformità alla normativa europea, sancendo che «Le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024».

Sistema di intelligenza artificiale

Ne deriva che per definire cosa si intenda per "sistema di intelligenza artificiale" ai fini dell'applicazione della legge italiana, inclusa la nuova fattispecie di reato per i deepfake di cui si sta trattando, è necessario fare riferimento alla definizione contenuta nel citato Regolamento (UE) 2024/1689, comunemente noto come AI Act.

Ai sensi dell'art. 3, comma primo di tale normativa:

«AI system' means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments»[1].

Lo stesso Regolamento con il Considerando n. 12 fornisce alcune precisazioni dall'elevato contenuto normativo:

Recit 12: «The notion of 'AI system' in this Regulation should be clearly defined and should be closely aligned with the work of international organisations working on AI to ensure legal certainty, facilitate international convergence and wide acceptance, while providing the flexibility to accommodate the rapid technological developments in this field. Moreover, the definition should be based on key characteristics of AI systems that distinguish it from simpler traditional software systems or programming approaches and should not cover systems that are based on the rules defined solely by natural persons to automatically execute operations»[2].

Ciò chiarendo, altresì, che «a key characteristic of AI systems is their capability to infer. This capability to infer refers to the process of obtaining the outputs, such as predictions, content, recommendations or decisions, which can influence physical and virtual environments, and to a capability of AI systems to derive models or algorithms, or both, from inputs or data. […] The capacity of an AI system to infer transcends basic data processing by enabling learning, reasoning or modelling. […] AI systems are designed to operate with varying levels of autonomy, meaning that they have some degree of independence of actions from human involvement and of capabilities to operate without human intervention».[3]

È, dunque, evidente che l'intento del Legislatore italiano con l'art. 612-quater c.p. sia quello di integrare penalmente la disciplina europea, che già ravvisa nei sistemi di IA dei profili di criticità intrinseche derivate dall'automatismo delle operazioni, dall'autonomia dei processi operativi e dall'alta qualità delle capacità generative che li contraddistingue.

Ad ogni modo, il contenuto generato con l'IA, ai fini della configurabilità di tale nuovo reato, deve essere «idoneo a indurre in inganno sulla [propria] genuinità».

Ovviamente, a tal proposito, il giudice sarà tenuto a adottare come parametro di riferimento l'acume del cittadino medio, così come nel caso della valutazione dei c.d. "artifizi e raggiri" per il reato di truffa (art. 640 c.p.) e delle numerose altre fattispecie assimilabili.

Delitto di evento

La configurazione del delitto de quo è, altresì, subordinata al cagionare un «danno ingiusto».

Tale scelta impone di allineare l'ipotesi criminosa come delitto di evento e non di mera condotta, ponendo sulla Procura inquirente l'onere di provare non solo la diffusione del falso, ma anche la produzione di un pregiudizio concreto e ingiusto, di natura patrimoniale o non patrimoniale (lesione della reputazione, dell'onore, dell'immagine, turbamento psicologico).

Tale requisito, se da un lato rispetta il principio di offensività, dall'altro potrebbe rappresentare una significativa criticità probatoria, specialmente nei casi in cui il danno sia sfumato o di difficile quantificazione.

Ad ogni modo, non può negarsi che la previsione del reato di deepfake costituisca comunque una facilitazione per la persona danneggiata, giacché, prima di tale riforma, l'unica forma di tutela a disposizione del soggetto leso era la responsabilità aquiliana di cui agli artt. 2043 e ss. c.c. in combinato con l'art. 2712 c.c., ai sensi del quale «le riproduzioni fotografiche, informatiche o cinematografiche, le registrazioni fonografiche e, in genere, ogni altra rappresentazione meccanica di fatti e di cose formano piena prova dei fatti e delle cose rappresentate, se colui contro il quale sono prodotte non ne disconosce la conformità ai fatti o alle cose medesime».

La qual cosa comportava per il danneggiato un aggravio probatorio (anche economico) che, adesso, è quantomeno lenito dalla penalizzazione delle fattispecie e dal conseguente necessario intervento della Magistratura inquirente.

Aspetti procedurali

Il reato è chiaramente punibile a titolo di dolo generico.

Ai fini della punibilità della condotta è, di conseguenza, sufficiente che l'azione sia compiuta con coscienza e volontà di diffondere il contenuto falso in assenza di consenso, oltre che con la consapevolezza dell'idoneità dello stesso ad ingannare ed a produrre un danno

La procedibilità, invece, è, di regola, a querela della persona offesa, ma diviene d'ufficio in casi di particolare gravità, come nelle ipotesi di connessione con altro delitto procedibile d'ufficio, vittima incapace e offesa a pubblica autorità.

La Legge 23 settembre 2025, n. 132, che ha introdotto il reato di "Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale" (art. 612-quater c.p.), non contiene una disposizione specifica che individui il tribunale territorialmente competente a giudicare tale delitto Cit. 1Cit. 28.

In assenza di una norma speciale (c.d. lex specialis), la competenza per territorio deve essere determinata applicando le regole generali previste dal Codice di Procedura Penale.

Va, però, precisato che l'applicazione di tali disposizioni ai reati informatici, e in particolare a quelli che si perfezionano con la diffusione di contenuti online, è, da sempre, oggetto di un articolato dibattito giurisprudenziale.

Ed, infatti, se, da un lato, il criterio principale per la determinazione della competenza territoriale è stabilito dall'art. 8 c.p.p., il quale radica la competenza nel luogo in cui il reato è stato consumato (c.d. locus commissi delicti), dall'altro, per una fattispecie criminosa come quella prevista dall'art. 612-quater c.p., che si realizza attraverso la cessione, pubblicazione o diffusione di un contenuto falso, il problema dell'individuazione del momento e del luogo di consumazione è molto critico

Come può immaginarsi, può facilmente accadere (ed anzi, sistematicamente accade) che la condotta sia espletata in un luogo (es. il luogo fisico da cui l'autore carica il file), mentre l'evento dannoso si manifesti in molteplici punti contemporaneamente (potenzialmente ovunque il contenuto sia accessibile).

Se guardiamo agli orientamenti giurisprudenziali espressisi su reati affini (es. la diffamazione a mezzo stampa[4]), l'interpretazione più probabile e coerente con le pronunce della Corte di Cassazione (si ribadisce, formatisi su fattispecie diverse ma analoghe) appare quella che conduce ad individuare la competenza nel tribunale del luogo di residenza della persona offesa.

Questa soluzione, sebbene non esplicitata per l'art. 612-quater c.p., si fonda su una solida analogia con la disciplina e l'interpretazione del reato di diffamazione commesso tramite mezzi di comunicazione di massa.

La Corte di Cassazione, in recenti pronunce, infatti, ha affermato che per la diffamazione commessa a mezzo radiotelevisivo, la competenza territoriale vada stabilita con riferimento al luogo di residenza della persona offesa, applicando l'art. 30, comma 5, della Legge n. 223/1990 [5].

E ciò, in applicazione dei criteri dominanti, riconosciuti financo dalla Corte Costituzionale, di tutela della vittima, la quale costituisce la parte debole del rapporto criminoso e, ragionando diversamente, subirebbe uno squilibrio rispetto alla forza e alla diffusività del mezzo impiegato per la commissione del reato, nonché di luogo di percezione del danno, in quanto il danno alla reputazione, all'immagine e alla dignità della persona si concretizza e produce i suoi effetti negativi principalmente nel luogo in cui la vittima ha il centro dei propri interessi personali, familiari e sociali, che di norma coincide con la sua residenza o il suo domicilio[6].

Senza contare che tale soluzione è, altresì, coerente con quanto stabilito dalle Sezioni Unite Civili della Cassazione, secondo cui per le azioni di risarcimento del danno derivante da lesione dei diritti della personalità tramite mezzi di comunicazione di massa, la competenza si radica nel luogo di domicilio o residenza del danneggiato[7].

Il reato di cui all'art. 612-quater c.p., d'altronde, pur essendo autonomo, condivide con la diffamazione aggravata la natura di reato contro la persona, la cui lesione si realizza attraverso una diffusione ad ampio raggio tramite mezzi informatici. È la qual cosa consente di ritenere più che doveroso seguire la medesima via interpretativa appena descritta del forum victimae.

Con riferimento al merito della configurabilità del reato di deepfake, è evidente che, così come per la competenza territoriale, in virtù della recente promulgazione dello stesso, non sussistono ancora orientamenti giurisprudenziali degni di nota o tantomeno consolidati in merito all'applicazione dell'art. 612-quater c.p.

Sarà interessante approfondirli non appena possibile e verificare l'efficacia concreta delle scelte operate dal Legislatore.

Tuttavia, è possibile anticipare le direttrici interpretative che i giudici potrebbero seguire, attingendo a principi consolidati in materie contigue.

Rapporti con altri reati

Un raffronto utile in tal senso può essere quello con il (purtroppo sempre più noto) reato di "Revenge Porn" punito dall'appena precedente art. 612-ter c.p. (peraltro introdotto, anch'esso solo di recente, con l'art. 10 comma 1 della L. 19 luglio 2019 n. 69).

Detta fattispecie criminosa presenta analogie e differenze con il delitto di "Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale" che stiamo esaminando.

Mentre l'art. 612-ter punisce la diffusione di materiale autentico destinato a rimanere privato[8], la nuova norma punisce la diffusione di materiale falso.

In proposito, va considerato che la Giurisprudenza formatasi sull'art. 612-ter c.p. ha mostrato un approccio fortemente protettivo della sfera di intimità e della privacy, intesa quale «diritto a controllare l'esposizione del proprio corpo e della propria sessualità»[9].

È probabile che un simile approccio, orientato alla tutela della dignità e dell'autodeterminazione della persona, influenzerà anche l'interpretazione dell'art. 612-quater, specialmente quando i deepfake avranno contenuto sessualmente esplicito o denigratorio.

Per altro verso, deve ritenersi che la prova della falsificazione richiederà complesse indagini tecnico-informatiche.

La Giurisprudenza, in materia di violazione del diritto d'autore, ha già affrontato il tema delle tecnologie per l'identificazione di contenuti illeciti.

Al riguardo, merita attenzione la precisazione recentemente espressa dal Tribunale di Roma, il quale, in tema di protezione del diritto d'autore, ha dimostrato di attribuire affidabilità alle «tecniche più utilizzate [come] il "watermarking", ovvero l'introduzione nel file video di informazioni aggiuntive che "marchiano" ogni fotogramma come un tatuaggio digitale» e quella denominata "video fingerprinting", che, «analogamente a quanto avviene nel caso delle impronte digitali delle persone, consiste nel rilevare alcuni elementi che caratterizzano univocamente il file(video/audio) e nel memorizzarli in una base dati, in modo che sia possibile confrontare successivamente qualsiasi video con le tracce presenti in tale archivio, al fine di identificare la presenza di sequenze riconducibili al file originario. Realizzato l'archivio delle "impronte", esso può essere utilizzato per confrontare le "impronte" memorizzate con le "impronte" dei nuovi contenuti audiovisivi».[10]

La Commissione Europea ha rilevato, sul punto, come le piattaforme di aggregazione, diffusione e pubblicazione di contenuti multimediali vantano sistemi per identificare e rimuovere contenuti illeciti, e come la stessa IA possa essere uno strumento in questa lotta, perché «dispongono solitamente dei mezzi tecnici per identificare e rimuovere» i contenuti illeciti e che, considerato il «progresso tecnologico nell'elaborazione di informazioni e nell'intelligenza artificiale, l'uso di tecnologie di individuazione e filtraggio automatico sta diventando uno strumento ancora più importante nella lotta contro i contenuti illegali online. Attualmente molte grandi piattaforme utilizzano qualche forma di algoritmo di abbinamento basata su una serie di tecnologie, dal semplice filtraggio dei metadati fino all'indirizzamento calcolato e alla marcatura (fingerprinting) dei contenuti. […] Nel settore del diritto d'autore, per esempio, il riconoscimento automatico dei contenuti si dimostra uno strumento efficace da diversi anni» e ciò anche in funzione proattiva e preventiva di futuri possibili illeciti. In particolare, «gli strumenti tecnologici possono essere usati con un maggiore livello di affidabilità per marcare e filtrare (rimozione permanente) i contenuti che sono già stati identificati e valutati come illegali» attraverso l'utilizzo di procedure di riconoscimento automatico dei contenuti e rimozione permanente[11].

È, pertanto, più che plausibile che la responsabilità dei titolari delle piattaforme de quibus diventerà un tema centrale per l'effettività della tutela, spingendo verso l'adozione di misure proattive di "notice and take down" e potenzialmente di "notice and stay down", vale a dire di espunzione dei contenuti illeciti e di inibizione del nuovo caricamento degli stessi.

Proprio nel contesto appena espresso, il Legislatore, immaginiamo anche in ragione dei profili testé esaminati, ha conferito al Governo, con l'art. 24 della stessa Legge n. 132/2025, una delega per adottare entro dodici mesi ulteriori disposizioni finalizzate, tra le altre cose:

  • alla previsione di strumenti, anche cautelari, per inibire la diffusione e rimuovere i contenuti illeciti;
  • alla precisazione dei criteri di imputazione della responsabilità penale, tenendo conto del «livello effettivo di controllo dei sistemi» da parte dell'agente;
  • alla regolamentazione della responsabilità civile e i criteri di ripartizione dell'onere della prova.

Ciò evidenzia la condizione di "work in progress" che connota la lotta agli abusi mediante l'utilizzo di IA, nonché la consapevolezza, da parte del Legislatore, che le normative di riferimento dovranno essere costantemente aggiornate per tenere il passo con un'evoluzione tecnologica in pieno turbine evolutivo.

Conclusioni

In conclusione, l'introduzione dell'art. 612-quater c.p. costituisce un passo fondamentale e necessario per dotare l'Ordinamento di uno strumento specifico contro la pratica dei "deepfake".

Tuttavia, le criticità legate alla prova del "danno ingiusto" e all'interpretazione delle clausole generali richiederanno un attento e ponderato lavoro da parte della Magistratura.

Alla luce di quanto appena osservato, la sfida che l'IA, più delle altre tecnologie sinora diffuse, lancia al Legislatore penale ed a tutto il Sistema Giudiziario è quella di ridurre al minimo i tempi di tipizzazione delle fattispecie criminose nascenti in conseguenza delle sempre crescenti possibilità offerte dai nuovi strumenti informatici a disposizione, nonché di comprenderne rapidamente la portata pregiudizievole, affinché la tutela giudiziaria possa quanto meno avvicinarsi alla velocità di compimento dei crimini mediante mezzi tecnologici.


[1] Trad.: «Sistema di intelligenza artificiale» (AI system): indica un sistema basato su macchina che è progettato per operare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo la messa in servizio, e che, per obiettivi espliciti o impliciti, deduce, a partire dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».

[2] Trad.: «Considerando n. 12: «La nozione di "sistema di intelligenza artificiale" ai fini del presente regolamento dovrebbe essere chiaramente definita e strettamente allineata ai lavori delle organizzazioni internazionali che operano nel settore dell'intelligenza artificiale, al fine di garantire certezza giuridica, facilitare la convergenza e l'ampia accettazione a livello internazionale, pur fornendo la flessibilità necessaria per adattarsi ai rapidi sviluppi tecnologici in questo campo. Inoltre, la definizione dovrebbe basarsi sulle caratteristiche fondamentali dei sistemi di intelligenza artificiale che li distinguono dai sistemi software tradizionali più semplici o dagli approcci di programmazione, e non dovrebbe comprendere i sistemi basati esclusivamente su regole definite da persone fisiche per eseguire automaticamente operazioni.

[3] Continua trad.: «Una caratteristica fondamentale dei sistemi di intelligenza artificiale è la loro capacità di inferenza. Tale capacità di inferenza si riferisce al processo mediante il quale si ottengono risultati, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare ambienti fisici o virtuali, nonché alla capacità dei sistemi di intelligenza artificiale di derivare modelli o algoritmi, o entrambi, a partire da input o dati. […] La capacità di un sistema di intelligenza artificiale di inferire trascende l'elaborazione di dati di base, poiché consente apprendimento, ragionamento o modellizzazione. […] I sistemi di intelligenza artificiale sono progettati per operare con diversi livelli di autonomia, il che significa che possiedono un certo grado di indipendenza dalle azioni umane e la capacità di operare senza intervento umano».

Una caratteristica fondamentale dei sistemi di intelligenza artificiale è la loro capacità di inferenza. Tale capacità di inferenza si riferisce al processo mediante il quale si ottengono risultati, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare ambienti fisici o virtuali, nonché alla capacità dei sistemi di intelligenza artificiale di derivare modelli o algoritmi, o entrambi, a partire da input o dati.

Le tecniche che consentono l'inferenza nella costruzione di un sistema di intelligenza artificiale comprendono approcci di apprendimento automatico (machine learning), che apprendono dai dati come raggiungere determinati obiettivi, e approcci basati sulla logica e sulla conoscenza, che traggono inferenze da conoscenze codificate o da rappresentazioni simboliche del compito da risolvere.

La capacità di un sistema di intelligenza artificiale di inferire trascende l'elaborazione di dati di base, poiché consente apprendimento, ragionamento o modellizzazione.

Il termine "basato su macchina" si riferisce al fatto che i sistemi di intelligenza artificiale funzionano su macchine.

Il riferimento a obiettivi espliciti o impliciti sottolinea che i sistemi di intelligenza artificiale possono operare secondo obiettivi chiaramente definiti oppure secondo obiettivi impliciti. Gli obiettivi del sistema di intelligenza artificiale possono essere diversi dallo scopo previsto del sistema di intelligenza artificiale in un contesto specifico.

Ai fini del presente regolamento, per "ambienti" si intendono i contesti nei quali i sistemi di intelligenza artificiale operano, mentre gli output generati dal sistema riflettono le diverse funzioni da esso svolte e includono previsioni, contenuti, raccomandazioni o decisioni.

I sistemi di intelligenza artificiale sono progettati per operare con diversi livelli di autonomia, il che significa che possiedono un certo grado di indipendenza dalle azioni umane e la capacità di operare senza intervento umano».

[4] Art. 595, terzo comma, c.p.

[5] V. per tutte, Cass. Pen., Sez. 1, N. 27750 del 29-07-2025.

[6] Cass. Pen., Sez. 5, N. 26919 del 08-07-2024.

[7] Cass. Pen., Sez. 5, N. 26919 del 08-07-2024 cit.

[8] Cass. Pen., Sez. 5, n. 25516 del 27-06-2024.

[9] Cass. Pen., Sez. 5, N. 25516 del 27-06-2024 cit.

[10] Tribunale Ordinario Roma, sez. I9, sentenza n. 15184/2022 e, nel medesimo senso, Cass. Civ., Sez. 1, N. 7708 del 19-03-2019.

[11] Tribunale Ordinario Roma, sez. I9, sentenza n. 15184/2022 cit.

[Fonte: www.studiocataldi.it]

Altre materie su cui è possibile richiedere una consulenza legale online:
Il team degli avvocati di consulenza legale on-line.it può rispondere ai vostri quesiti anche nelle seguenti materie:
Proprietà e diritti reali - diritto del lavoro - obbligazioni e contratti - appalti - locazioni - fallimento e altre procedure concorsuali - diritto penale.
Per qualsiasi altra materia inviate in ogni caso la vostra richiesta. Il nostro è un team multidisciplinare.
Rassegna Stampa
Una rassegna stampa giuridica che raccoglie le notizie dai principali siti di informazione giuridica.
Discussioni Giuridiche
Le ultime discussioni dai newsgroup dedicati al mondo del diritto.