▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

AI e videosorveglianza: lettera aperta alla Commissione Europea

Diverse associazioni chiedono un bando del riconoscimento biometrico nella videosorveglianza: troppi i rischi per la mancata tutela dei diritti delle persone

Tecnologie/Scenari
Cinquantasei organizzazioni europee e nazionali per la tutela dei diritti digitali hanno inviato una lettera aperta al Commissario Europeo per la Giustizia, Didier Reynders, chiedendo una forte limitazione all'utilizzo delle tecnologie di intelligenza artificiale a fini discriminatori. In sintesi, tra l'altro, un bando all'utilizzo delle funzioni di riconoscimento biometrico nella videosorveglianza di massa. L'appello fa capo principalmente all'associazione internazionale European Digital Rights (EDRi), ma i nomi in gioco sono molti e tra i firmatari italiani troviamo Associazione Luca Coscioni, Certi Diritti, Hermes Center, Privacy Network, StraLi for Strategic Litigation.

Secondo la petizione, diversi studi dimostrano che la sorveglianza biometrica di massa è una violazione di diversi diritti fondamentali delle persone coinvolte. Tra cui il diritto alla privacy, alla libera espressione e libera associazione, alla dignità e ai principi fondamentali di giustizia, democrazia e rispetto della legge. Serve ora uno specifico intervento della UE per tre principali motivi, secondo le associazioni: le norme attuali non sono sufficienti, ci sono già casi pericolosi nell'utilizzo dell'AI, l'innovazione non può crescere ai danni dei diritti fondamentali.

Riguardo il primo punto, l'appello non chiede il blocco della videosorveglianza in senso lato. Ma un bando specifico che colpisca "le pratiche di sorveglianza biometrica di massa intrinsecamente non necessarie e sproporzionate". Contro di esse non bastano le salvaguardie del GDPR perché "attori pubblici e privati" già sfruttano regolarmente le possibili eccezioni alle norme per pratiche non corrette. Aggirano cioè le limitazioni sia alle riprese video in spazi pubblico accessibili al pubblico, sia nella elaborazione delle informazioni che si possono ricavare dalle riprese.
aiLa posizione della EDRi è che le violazioni ai diritti fondamentali legate al riconoscimento biometrico non siano solo patrimonio delle nazioni dove il rispetto di questi diritti è sempre dubbio. La campagna Reclaim Your Face prende ad esempio le mosse dall'analisi di svariati "casi pratici" in cui realtà pubbliche e private delle nazioni UE - c'è anche qualche caso emblematico italiano - hanno messo in atto forme di videosorveglianza e riconoscimento biometrico giudicate non legali o comunque sproporzionate per i fini dichiarati.

A chi difende i diritti dell'innovazione tecnologica per il timore che questa venga rallentata dalle norme, la EDRi risponde che l'Europa può conseguire un vantaggio nel mondo del digitale proprio "garantendo che l'innovazione rispetti sempre i diritti fondamentali delle persone". E la UE "può definire standard che proteggano questi diritti pur mantenendo i mercati concorrenziali". Meglio muoversi eticamente già adesso, è il messaggio, che ritrovarsi agli stessi livelli delle citatissime forme di videosorveglianza cinesi e statunitensi.

Come risponderà la UE? Difficile che ci sia una risposta esplicita e specifica. Gli appelli all'etica nell'IT sono frequenti e le norme UE che possono toccare l'uso responsabile delle nuove tecnologie continuano logicamente ad aumentare. A breve la UE dovrebbe tra l'altro pubblicare un documento specifico sull'etica dell'AI e delle sue applicazioni. Un tema che a Strasburgo e altrove è sempre particolarmente gettonato.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter