Il rischio che la GenAI venga usata per creare immagini e video contrari ai principi della privacy è troppo elevato, le Authority prendono posizione
Le Authority per la protezione della privacy e dei dati personali di tutto il mondo hanno emesso un (breve) documento congiunto per sintetizzare la loro posizione comune in merito ai rischi che comporta la generazione di immagini e video sintetici attraverso gli strumenti di GenAI. Tra i firmatari - una sessantina - del documento c'è anche il Garante per la Protezione dei dati Personali italiano, con i suoi rappresentanti Pasquale Stanzione, Ginevra Cerrina Feroni e Agostino Ghiglia.
Il problema evidenziato dalle Authority è che gli attuali strumenti di Intelligenza Artificiale generativa sono in grado di generare immagini e video estremamente realistici, anche - ed è qui la questione - di persone perfettamente identificabili che vengono ritratte senza esserne a conoscenza e senza aver dato il loro consenso. Questi contenuti sintetici possono poi essere rapidamente diffusi attraverso i social media e il web.
Il messaggio che le Authority vogliono lanciare è ovvio, ma a quanto pare degno di essere ribadito formalmente: i sistemi di AI che generano contenuti devono essere sviluppati e usati rispettando le norme di legge, in particolare le normative che riguardano la privacy e la protezione dei dati. E la creazione non consensuale di immagini di una persona può costituire un vero e proprio reato penale. Certo ogni nazione ha le sue leggi, ma le Authority sottolineano che alcuni principi fondamentali valgono per tutte le regioni del mondo e obbligano le aziende che sviluppano piattaforme di AI a rispettare alcuni punti chiave.

Gli AI provider devono ad esempio implementare solide misure di sicurezza per prevenire l'uso improprio delle informazioni personali e "la generazione di immagini intime non consensuali e di altri contenuti dannosi, in particolare quelli che ritraggono bambini". Devono poi essere particolarmente trasparenti riguardo le capacità delle loro piattaforme e servizi di AI, le misure di salvaguardia che ne limitano il comportamento, gli usi accettabili delle piattaforme stesse, le conseguenze di un loro uso improprio. Inoltre, devono essere messi in atto meccanismi "efficaci e accessibili" per richiedere la rimozione di contenuti dannosi e la risposta a queste richieste deve essere rapida.
Le Authority sostengono anche che il rischio collegato alla generazione di contenuti impropri o diffamatori è tale da richiedere una "urgente attenzione regolatoria". E comunque le aziende che sviluppano servizi di AI generativa dovrebbero collaborare "in modo proattivo" con le Authority, mettere in atto il prima possibile solide misure di salvaguardia e - più fumosamente - garantire che "il progresso tecnologico non vada a discapito della privacy, della dignità, della sicurezza e di altri diritti fondamentali".
Oltre a questo invito ai legislatori delle varie nazioni e alle aziende tecnologiche, le Authority non possono fare molto altro. Intendono comunque condividere le informazioni relative ai loro approcci per affrontare tutte le questioni evidenziate, se questa condivisione non è in contrasto con le varie leggi locali in vigore.
In questo articolo abbiamo parlato di: Contenuti Sintetici, Diritti Fondamentali, GenAI, Intelligenza Artificiale Generativa, Normative AI, Privacy, Protezione Dati Personali,
24-02-2026
24-02-2026
20-02-2026
19-02-2026