Video creati con AI: cosa vieta e sanziona la nuova legge

Video creati con AI

È stato approvato dal Senato il 17 settembre e, successivamente, pubblicato in Gazzetta Ufficiale il 10 ottobre. È ormai legge un nuovo provvedimento che introduce pene severe per chi diffonde video, immagini o audio creati con l’intelligenza artificiale in modo da ingannare o danneggiare altre persone.

Non è l’IA in sé a finire nel mirino, ma l’uso distorto della tecnologia: i cosiddetti deepfake, quei contenuti falsi ma incredibilmente realistici, diventano ora un reato specifico nel codice penale in determinate casistiche. In un contesto in cui l’AI e il futuro dell’informazione sono sempre più intrecciati, è fondamentale comprendere i confini tra innovazione e reato.

Dettaglio normativo Specifiche di legge
Nuovo reato introdotto Art. 612-quater Codice Penale
Pena prevista Reclusione da 1 a 5 anni
Condotta punibile Creazione e diffusione senza consenso
Aggravante specifica Uso insidioso di sistemi di IA

Video creati con AI: hanno i giorni contati?

Ci siamo divertiti tutti almeno una volta davanti a dei video creati con AI: gatti che parlano, persone che fanno cose impossibili, personaggi storici catapultati nel presente. Gag e giochi creativi e spesso surreali, dove l’unico limite sono le regole del provider e la fantasia dell’utente che genera il prompt.

Ma non tutti i video, le foto e persino gli audio creati con l’AI nascono per far sorridere. Sempre più spesso, infatti, vengono usati per ingannare, diffamare o manipolare: falsi video di politici o celebrità, dichiarazioni mai pronunciate o contenuti lesivi. Casi recenti di cronaca, come quelli legati al deepfake da Phica.eu al caso Barra e Social Media Girls, dimostrano come le conseguenze possano diventare molto più gravi di una semplice bufala virale.

Video creati con AI

Cosa dice la nuova norma, in parole semplici

La norma approvata in Senato entra direttamente nel Codice penale con l’art. 612-quater: punisce chi “cedendo, pubblicando o diffondendo” contenuti falsificati con sistemi di IA e idonei a ingannare, causa un danno ingiusto alla persona ritratta/ascoltata, senza il suo consenso. Pena: reclusione da 1 a 5 anni.
Si procede a querela della persona offesa, ma si può procedere d’ufficio se la vittima è incapace (per età o infermità), se si tratta di una pubblica autorità o se il fatto è connesso ad alcuni reati gravi perseguibili d’ufficio.

La cosa importante è che la legge non punisce solo chi realizza un deepfake, ma anche chi lo inoltra, lo pubblica o lo condivide, se contribuisce alla sua diffusione senza consenso. In pratica: non serve essere un hacker per violare la legge, basta condividere un contenuto falso che danneggia qualcuno.

“Aggravante IA”: pene più alte se usi l’IA per delinquere

La legge aggiunge anche una nuova aggravante generale: se commetti un reato “mediante l’impiego di sistemi di IA” in modo insidioso o tale da ostacolare la difesa, le pene aumentano (nuovo n. 11-decies all’art. 61 c.p.). E per alcune fattispecie specifiche (es. taluni reati di inganno) è previsto un aumento mirato. Tradotto: usare l’IA per truffare, manipolare o coprire le tracce diventa più grave.

Alcuni esempi:

    • Diffondere notizie o video falsi generati da IA su società quotate (es. finti annunci di fallimento o dimissioni di CEO) per alterare il valore dei titoli;
    • Creare e diffondere video o audio falsi per screditare persone, giornalisti o istituzioni, sfruttando la credibilità apparente di contenuti realistici;
    • Revenge pornography tramite video Deep Fake;
    • L’uso di deepfake vocali o visivi per impersonare dirigenti d’azienda (“CEO fraud”), convincere dipendenti a effettuare bonifici o trarre in inganno i clienti.

Insomma, l’uso improprio dell’intelligenza artificiale non è più uno scherzo: la legge ora prevede conseguenze penali concrete, oltre a prevedere una lunga lista di aggravanti.

Cosa può fare chi è vittima di reato tramite video creati con AI?

La persona offesa può chiedere non solo la rimozione del deepfake dalle piattaforme, ma anche il risarcimento dei danni, proporzionato alla gravità dell’offesa e alla diffusione del contenuto. Se la piattaforma rifiuta o ignora la richiesta, il giudice può ordinare la rimozione forzata e vietarne la diffusione futura, oltre a disporre le sanzioni penali ai diretti responsabili. Un dettaglio importante: se la vittima muore, questi diritti passano agli eredi.

Queste direttive si aggiungono a una lunga lista di reati digitali, per così dire “nuovi”, che oggi si possono commettere con una facilità disarmante e che, troppo spesso, vengono sottovalutati.
Oltre ai deepfake, troviamo il cyberbullismo, lo stalking online, la diffusione non consensuale di immagini intime (revenge porn), le frodi informatiche e le truffe tramite phishing o social engineering. Reati che l’intelligenza artificiale rende ancora più insidiosi, automatizzando processi che un tempo richiedevano competenze tecniche elevate — come la clonazione realistica di voci e volti, o la creazione di contenuti manipolati in pochi secondi.

Inoltre si tratta di reati che, pur avvenendo “solo” in rete, possono avere conseguenze reali e devastanti per le vittime — economiche, reputazionali e psicologiche — e che la giurisprudenza sta finalmente iniziando a trattare con la gravità che meritano. Per approfondire il testo ufficiale, è possibile consultare la Gazzetta Ufficiale.

Video creati con AI: un punto di svolta

La nuova legge italiana si muove in sintonia con l’AI Act europeo, approvato nel 2024, che impone regole di trasparenza e tracciabilità per i contenuti generati da IA.
L’Italia, con questa norma penale, diventa uno dei primi Paesi UE a prevedere sanzioni specifiche per chi usa l’intelligenza artificiale in modo ingannevole o dannoso.

Tale legge, inoltre, segna un punto di svolta: riconosce che l’intelligenza artificiale non è un pericolo in sé, ma lo diventa quando viene usata per mentire, manipolare o distruggere reputazioni.
È un invito a tutti — utenti, creatori e piattaforme — a usare l’IA con responsabilità, ricordando che ogni contenuto digitale può avere un impatto reale.

Immagine di copertina, Copyright Free, realizzata con DALL-E

Altri articoli da non perdere
Curiosità sul cibo: 5 fatti che ti sorprenderanno
curiosità sul cibo

Il cibo è un elemento centrale della nostra vita sociale e culturale, ma spesso conosciamo solo superficialmente ciò che mangiamo. Scopri di più

Videogiochi di Assassin’s Creed: 3 da giocare
Videogiochi di Assassin’s Creed

La saga di Assassin's Creed è un fenomeno videoludico che ha attraversato generazioni, con oltre una dozzina di capitoli principali Scopri di più

Il declino di Resident Evil e del genere horror
Il declino di Resident Evil e del genere horror

L’immensa saga di Resident Evil è un cardine del genere horror ormai dal 1996, grazie al lavoro certosino della Capcom. Scopri di più

Crittografia: cos’è, come funziona e perché è fondamentale per la sicurezza
Crittografia e sicurezza informatica: come funziona?

La crittografia – letteralmente “scrittura nascosta” – è un sistema pensato per rendere illeggibile un messaggio per coloro che non Scopri di più

Giochi rilassanti per iPad: 7 da scaricare
Giochi rilassanti per iPad: 7 da scaricare

In un mondo come quello di oggi, stressante, dove l’essere di fretta è diventato la normalità, è sempre più difficile Scopri di più

Cos’è un Chatbot? Definizione, significato, a che serve
Un chatbot è un'applicazione di intelligenza artificiale progettata per interagire con gli utenti attraverso una chat o un messaggio

Un chatbot è un'applicazione di intelligenza artificiale progettata per interagire con gli utenti attraverso una chat o un messaggio. I Scopri di più

Condividi l'articolo!

A proposito di Marco Alessio

Vedi tutti gli articoli di Marco Alessio

Commenta