AI

UE vieta le app di nudo e rinvia l’AI Act

Carlo Coppola · 26 Marzo 2026 · 6 min di lettura
UE vieta le app di nudo e rinvia l'AI Act
Immagine: The Verge

L’Unione Europea ha appena preso una decisione che farà discutere per mesi. Il Parlamento europeo ha votato a larga maggioranza due misure fondamentali: il bando alle app “nudify” – quelle che generano immagini intime sintetiche di persone – e il rinvio di scadenze cruciali dell’AI Act, la normativa più ambiziosa al mondo per regolamentare l’intelligenza artificiale. Si tratta di un compromesso tra la necessità di proteggere i cittadini e la pressione dell’industria tech per avere più tempo di adeguamento.

Le implicazioni sono enormi sia per i consumatori che per le aziende tech, non solo europee. Se da un lato il bando alle app di sintesi di nudo rappresenta una vittoria netta per la privacy e la dignità personale (soprattutto delle donne, che sono il bersaglio principale di questi strumenti), dall’altro il rinvio dell’AI Act rischia di creare un limbo normativo che potrebbe favorire chi ha più risorse economiche per adeguarsi quando le scadenze arriveranno davvero.

Il bando alle app nudify: una protezione concreta

Partiamo da quella che è senza dubbio la notizia più positiva per la protezione dei diritti individuali. L’Unione Europea ha deciso di vietare categoricamente le applicazioni che generano immagini sessualmente esplicite di persone senza il loro consenso. Parliamo di strumenti che utilizzano l’intelligenza artificiale per creare deepfake intimi a partire da foto ordinarie – un fenomeno che negli ultimi anni è esploso e ha causato danni psicologici significativi a migliaia di vittime, prevalentemente donne.

Questo non è un divieto simbolico. Le piattaforme che ospitano o distribuiscono questi contenuti sintetici rischieranno sanzioni serie, e gli sviluppatori che continuassero a distribuirle nell’Unione Europea potrebbero affrontare conseguenze legali significative. È un passo importante perché riconosce il danno reale che questi strumenti producono e traccia una linea chiara: la sintesi di contenuti intimi non consensuali non è uno “scherzo di internet”, è abuso. L’Italia, paese dove il fenomeno ha raggiunto dimensioni allarmanti (basti ricordare i casi di cronaca che hanno fatto emergere l’uso di queste app nelle scuole), dovrebbe fare della conformità a questa norma una priorità assoluta.

L’AI Act rinviato: una scelta pragmatica o una scappatoia?

Qui le cose diventano più complesse. Il Parlamento europeo ha approvato un rinvio significativo delle scadenze più stringenti dell’AI Act. In particolare, gli sviluppatori di sistemi di intelligenza artificiale ad alto rischio – quelli che potrebbero minacciare la sicurezza, la salute o i diritti fondamentali dei cittadini – avranno tempo fino a dicembre 2027 per conformarsi completamente alle nuove regole, anziché ai tempi inizialmente previsti.

Ma c’è di più. Per i sistemi AI soggetti a normative di sicurezza specifiche per settore (come i giocattoli, i dispositivi medici o i sistemi biometrici), il termine è stato ulteriormente posticipato ad agosto 2028. Questa è una concessione enorme all’industria tech, che aveva fatto pressioni significative sulla Commissione europea lamentandosi di non avere abbastanza tempo per adeguarsi a standard tanto stringenti.

La domanda è lecita: è davvero troppo poco tempo per conformarsi, oppure è una vittoria del lobbying? Analizzando la situazione, gli argomenti dell’industria hanno un fondamento – sviluppare sistemi AI completamente conformi alle numerose misure di trasparenza, tracciamento e controllo richiede investimenti significativi in infrastrutture e risorse umane. Tuttavia, il rinvio fino al 2027-2028 è sostanziale: le aziende tech hanno praticamente avuto tre anni di preavviso dalla prima proposta. Chi ha realmente intenzione di conformarsi avrà tempo sufficiente.

Cosa significa per gli utenti e le aziende italiane

Per chi utilizza servizi di intelligenza artificiale quotidianamente – chatbot, generatori di immagini, sistemi di raccomandazione – il rinvio significa che il livello di controllo e trasparenza non aumenterà immediatamente. I grandi player tech come Google, OpenAI e Meta continueranno a sviluppare i loro sistemi con relativamente poca pressione normativa fino alla fine del 2027.

Per le startup e le aziende tech italiane, il discorso è diverso. Il rinvio potrebbe essere percepito come una buona notizia – più tempo per adeguarsi – ma in realtà crea un vantaggio per i player più grandi che possono permettersi di aspettare e investire massicciamente all’ultimo momento. Le PMI innovative italiane dovrebbero comunque iniziare da ora a preparare i loro sistemi AI perché quando il 2027 arriverà, la conformità sarà obbligatoria e le violazioni avranno costi significativi.

Il bando alle app nudify, invece, ha impatto immediato per qualsiasi piattaforma italiana che ospiti contenuti generati dall’IA. Host provider, social network italiani e marketplace digitali devono aggiornare le loro policy oggi, non domani.

Le prospettive per il futuro

Quello che stiamo vedendo è il tentativo dell’Unione Europea di bilanciare due esigenze contrapposte: proteggere i cittadini da rischi reali e crescenti (la sintesi di contenuti intimi non consensuali è un rischio concreto oggi) e al contempo non soffocare l’innovazione tecnologica (che rimane cruciale per la competitività economica europea contro gli Stati Uniti e la Cina).

Il risultato è un compromesso che soddisfa parzialmente entrambi i lati. Il bando alle app nudify è una vittoria chiara per la protezione dei diritti. Il rinvio dell’AI Act è una concessione all’industria che, come abbiamo visto, ha sia elementi ragionevoli che elementi discutibili. La vera sfida sarà monitorare che il 2027 non diventi una data che scivola ancora più in avanti, una volta che l’attenzione mediatica sarà diminuita.

Nel frattempo, l’Italia deve farsi trovare preparata. Le aziende tech italiane dovrebbero iniziare subito a comprendere e a implementare i principi dell’AI Act – trasparenza, controllo umano, protezione dei dati – non perché costrette da una scadenza imminente, ma perché è il modo giusto di sviluppare tecnologia responsabile nel 2026.

Fonte: The Verge