Come i deepfake possono influenzare le comunicazioni di taglio istituzionale-politico

L'enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza per la creazione di deepfake di taglio politico.

Autore: Paolo Cecchi

Salvidor Dalì è morto il 23 gennaio 1989, molti anni prima dell'avvento dei social media, molto prima che la parola “deepfake” entrasse nei vocabolari e prima ancora che la Russia imparasse a manipolare i contenuti online di un'elezione presidenziale piuttosto dibattuta. Ma Salvator Dali è tuttora presente. Chi non conoscesse il contesto o gli aspetti della sua vita e la sua storia, potrebbe concludere, dopo aver visto:

che è molto più vivo e reale di alcune delle sue opere artistiche. Questo è il punto.

Lo scorso maggio Public Citizen, un gruppo di attivisti apartitici, ha presentato alla Commissione elettorale federale degli Stati Uniti una petizione per bloccare gli annunci elettorali deliberatamente ingannevoli. Tutto questo perché gli straordinari progressi degli strumenti di Artificial Intelligence (AI) oggi forniscono agli esponenti politici i mezzi per produrre annunci elettorali con immagini false di candidati generate al computer incredibilmente realistiche al fine di rappresentare negativamente i candidati stessi.

In questo caso non si parla dell’uso dell’Artificial Intelligence che ne fa il cinema per creare effetti speciali, ambientazioni futuristiche o scenari disastrosi. L’approccio con cui viene sfruttata l’AI in politica è del tutto diverso. Cosa c'entra tutto questo con le questioni politiche e i deepfake? Tutto.

Paolo Cecchi è Regional Sales Director di SentinelOne

Una narrazione necessita di ingredienti avvincenti che la ancori nella mente del pubblico di riferimento. Nei film si tratta di intrattenimento e proiezione della realtà. In politica… anche. Un'immagine, un clip audio o un video sono espedienti utilizzati per essere credibili e rimanere impressi nella memoria delle persone. In questo contesto, il progresso dell’AI ha fatto passi da gigante, sfruttando la natura positiva del suo utilizzo, purtroppo, anche per scopi negativi.

Per essere efficace, l'AI ha bisogno di contenuti su cui essere istruita tramite machine learning. Maggiori sono i contenuti, migliore è la capacità dell'AI di raggiungere i risultati previsti. Supponendo che l'obiettivo sia la manipolazione del comportamento umano e il cambiamento di convinzioni precedentemente sostenute, l'enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza.

La storia insegna che le bugie si diffondono molto più facilmente della verità e sono molto più difficili da rettificare. Nella mente umana, ciò che viene percepito corrisponde al reale ed è molto più difficile cambiare la percezione iniziale una volta che questa si è insediata.

È un concetto molto attinente a quello della deception. Questo fenomeno ha generato un importante dilemma legale e tecnico. Come si riesce a sapere con certezza se il video visualizzato è un deepfake? Come si fa a dimostrare che un fatto non è avvenuto? Ma la domanda più spinosa è: come è possibile provare definitivamente che qualcosa è falso?

Durante le elezioni del 2016, la campagna di disinformazione della Russia è stata condotta tramite la Internet Research Agency - IRA - e ha prodotto uno dei migliori ritorni dell’investimento per l'interferenza politica. Poco più di 100.000 dollari hanno fornito una costante manipolazione dei social media che ha prodotto un risultato almeno cento volte superiore.

Nel 2023, l'AI si è spinta ben oltre la capacità umana di identificare rapidamente un output ingannevole (un'immagine, un video o una voce), creando una condizione in cui la facoltà di ancorare nelle menti degli elettori una percezione intenzionalmente falsa e di ignorare la verità, potrà essere considerata come la migliore arma politica.

I deepfake sono le nuove armi di inganno di massa. L'impatto più significativo dei video deepfake non è il fatto che sono falsi, ma, piuttosto, che l'inganno creato continua ad esistere anche dopo che la verità è stata scoperta: un potente strumento nelle mani dei nostri avversari.

Come scrisse Jonathan Swift, autore di “I viaggi di Gulliver”: “La falsità vola e la verità la segue zoppicando, cosicché, quando gli uomini vogliono essere disingannati, è troppo tardi; lo scherzo si è concluso e la messinscena ha avuto il suo effetto".

Un modo per sconfiggere l'AI che è stata istruita per fare del male è attraverso l’utilizzo di un’AI addestrata a produrre del bene. Non si può cedere il campo di battaglia digitale agli avversari limitando la capacità delle persone buone di creare e innovare. Le elezioni hanno le loro conseguenze. Tuttavia, le conseguenze devono essere scelte e create dai singoli elettori, non dovrebbero mai essere il risultato dell'interferenza degli avversari politici.

Le circostanze attuali sono ottimali per dichiarazioni e affermazioni politiche ingannevoli che utilizzeranno l'AI e i deepfake durante le prossime elezioni in tutto il mondo. L'AI come “forza del bene” è uno dei migliori alleati che abbiamo per fidarci di ciò che vediamo e sentiamo.

Paolo Cecchi è Regional Sales Director di SentinelOne


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.