- Il voto delle commissioni: numeri e significato
- Cosa cambia: il rinvio per i sistemi ad alto rischio
- Nudificazione e deepfake sessuali: scatta il divieto
- Watermarking: etichettare i contenuti IA entro novembre 2026
- I prossimi passaggi a Strasburgo e Bruxelles
- Domande frequenti
Bruxelles — Il regolamento europeo sull'intelligenza artificiale compie un altro passo, ma lo fa rallentando su un fronte e accelerando su un altro. Le commissioni Mercato interno e Libertà civili del Parlamento europeo hanno dato oggi il primo via libera alla proposta di semplificazione dell'AI Act, approvandola con 101 voti a favore, 9 contrari e 8 astensioni. Un margine largo, che racconta un consenso trasversale e pochi dubbi sulla direzione intrapresa.
La doppia anima del provvedimento è chiara: da un lato si concede più tempo alle imprese per adeguarsi alle regole sui sistemi di IA considerati ad alto rischio; dall'altro si introduce un divieto netto e immediato sulla cosiddetta *nudificazione*, ovvero la creazione tramite intelligenza artificiale di immagini sessualmente esplicite senza il consenso delle persone raffigurate.
Il voto delle commissioni: numeri e significato
I numeri parlano da soli. Solo 9 eurodeputati hanno votato contro, a fronte di oltre cento favorevoli. Il segnale politico è inequivocabile: la necessità di rivedere alcune scadenze dell'AI Act — entrato formalmente in vigore nell'agosto 2024 — non è più materia di dibattito tra favorevoli e contrari alla regolamentazione, ma un punto di pragmatismo condiviso.
La proposta, avanzata dalla Commissione europea nell'ambito di un più ampio pacchetto di semplificazione normativa, riconosce che il tessuto produttivo europeo — in particolare le piccole e medie imprese — ha bisogno di margini temporali più ampi per conformarsi a obblighi complessi. Al tempo stesso, i co-legislatori hanno voluto evitare che il rinvio venisse percepito come un ammorbidimento tout court. Da qui la scelta di inasprire le regole su uno dei fenomeni più controversi legati all'IA generativa: i deepfake a sfondo sessuale.
Cosa cambia: il rinvio per i sistemi ad alto rischio
Il cuore della proposta riguarda lo slittamento delle scadenze per i sistemi di IA classificati come ad alto rischio. Si tratta di quei sistemi che operano in ambiti sensibili — dalla selezione del personale alla valutazione del merito creditizio, dalla sorveglianza biometrica alla gestione delle infrastrutture critiche — e che l'AI Act sottopone a obblighi stringenti di trasparenza, documentazione tecnica e gestione del rischio.
Le nuove date proposte fissano l'entrata in vigore delle relative disposizioni tra il 2027 e il 2028, a seconda della categoria specifica. Un rinvio che, stando a quanto emerge dalle discussioni in commissione, mira a evitare il rischio concreto di un'applicazione caotica e frammentaria del regolamento, con conseguenze potenzialmente dannose sia per le imprese sia per la credibilità stessa del quadro normativo europeo.
Va ricordato che l'Unione Europea ha già dovuto rispondere a critiche serrate sulle implicazioni delle proprie regolamentazioni digitali per il settore privato, in particolare da oltreoceano. Anche per questo, la scelta di allungare i tempi appare dettata non solo da esigenze tecniche, ma da una più sottile strategia di posizionamento geopolitico: regolamentare sì, ma senza soffocare l'innovazione.
Nudificazione e deepfake sessuali: scatta il divieto
Se sul versante industriale l'Europa sceglie la cautela, su quello dei diritti fondamentali alza la voce. La proposta approvata introduce esplicitamente tra le pratiche vietate dall'AI Act i sistemi di nudificazione — software e algoritmi capaci di generare immagini sessualmente esplicite a partire da foto reali di persone, senza alcun consenso da parte dei soggetti coinvolti.
Il fenomeno non è nuovo. Negli ultimi anni la diffusione di strumenti di IA generativa ha reso la creazione di deepfake sessuali accessibile praticamente a chiunque, con conseguenze devastanti per le vittime, in larga parte donne e minori. Fino a oggi, però, il contrasto si era mosso prevalentemente sul piano penale nazionale, con normative frammentarie e spesso inadeguate.
L'inserimento del divieto direttamente nel corpo dell'AI Act segna un cambio di approccio: non si interviene solo a valle, punendo chi diffonde i contenuti, ma a monte, vietando la commercializzazione e l'utilizzo dei sistemi progettati per generarli. Una scelta che allinea il regolamento europeo alle crescenti preoccupazioni internazionali. Il tema dei deepfake, del resto, non riguarda soltanto la sfera della violenza digitale: come emerso dalla truffa multimilionaria che ha colpito risparmiatori in Europa e Canada, queste tecnologie vengono ormai impiegate anche per frodi finanziarie su larga scala.
Watermarking: etichettare i contenuti IA entro novembre 2026
Un altro tassello significativo del pacchetto riguarda le norme sul watermarking, cioè l'obbligo di apporre un'etichetta — visibile o incorporata nei metadati — ai contenuti generati o manipolati dall'intelligenza artificiale. Testi, immagini, video, audio: tutto ciò che esce da un sistema di IA generativa dovrà essere riconoscibile come tale.
La scadenza per l'applicazione di queste disposizioni è stata fissata al 2 novembre 2026. Si tratta di un termine più ravvicinato rispetto a quelli previsti per i sistemi ad alto rischio, segno che il legislatore europeo considera la trasparenza dei contenuti una priorità che non ammette rinvii eccessivi. D'altra parte, la questione della riconoscibilità dei contenuti generati dall'IA si intreccia strettamente con il contrasto alla disinformazione — un fronte su cui le istituzioni europee si stanno muovendo anche con strumenti specifici dedicati ai cittadini.
Resta da capire, tuttavia, come si tradurranno nella pratica gli obblighi tecnici legati al watermarking. Gli standard sono ancora in fase di definizione e la comunità scientifica è tutt'altro che unanime sull'efficacia dei sistemi attualmente disponibili, soprattutto di fronte ad attori malintenzionati dotati di competenze avanzate.
I prossimi passaggi a Strasburgo e Bruxelles
Il voto odierno in commissione non chiude la partita. La proposta dovrà ora passare al vaglio della plenaria del Parlamento europeo, per poi entrare nella fase di negoziato interistituzionale — il cosiddetto *trilogo* — con il Consiglio dell'Unione europea e la Commissione.
I tempi non saranno brevissimi, ma il margine con cui le commissioni si sono espresse lascia presagire un iter relativamente lineare, almeno nella fase parlamentare. La vera partita si giocherà probabilmente al Consiglio, dove le posizioni degli Stati membri sulle scadenze e sui divieti potrebbero divergere in modo più marcato.
Quel che è certo è che l'Europa conferma la propria ambizione di restare il punto di riferimento mondiale nella regolamentazione dell'intelligenza artificiale. Lo fa, però, con un approccio più flessibile rispetto al passato: più tempo per le imprese, meno tolleranza per chi usa la tecnologia come arma contro le persone. Un equilibrio difficile, che i prossimi mesi di negoziato metteranno inevitabilmente alla prova.