Condividi questo articolo
twitter
Le piattaforme di social media stanno correndo ai ripari per combattere la diffusione di contenuti falsi. Ora Twitter si rivolge ai suoi utenti per ricevere indicazioni sulla migliore strategia da implementare.

 

“Aiutaci” ha scritto Del Harvey  vicepresidente incaricata alla sicurezza di Twitter, quando ha annunciato che i social media hanno messo a punto una nuova bozza di politica per contrastare la diffusione dei deepfake sulle loro piattaforme .

La società sollecita gli utenti di Twitter a fornire un feedback sulla nuova strategia, che verrà quindi rivista e adattata, prima di essere aggiunta alle regole di Twitter .

Creata per rispondere a ciò che chiama  deepfakes, la bozza delinea le azioni che Twitter intraprenderà quando vedrà che tali contenuti verranno pubblicati allo scopo di fuorviare le persone.

La nuova politica consentirebbe a Twitter di includere un’etichetta, accanto a tweet pubblicati, che avviserebbe gli utenti prima che possano ricondividere o porre un like al tweet, che quest’ultimo contenga un media etichettato come fasullo e fornire collegamenti a fonti che spieghino perché lo si ritenga tale.

Harvey ha aggiunto che i tweet potranno essere rimossi se il falso contenuto si rivelerà una minaccia per la sicurezza fisica di qualcuno o portare ad altri gravi danni.

“Vogliamo avere tue notizie “, ha continuato Harvey, chiedendo agli utenti di Twitter di completare un sondaggio sulla nuova politica.  Tra le altre cose, il sondaggio chiede se è responsabilità di Twitter rimuovere i media fuorvianti, se ha il diritto di rimuovere i tweet che condividono i deepfake o se il social media debba fare qualcosa per gli account che condividono contenuti falsi.

La società aveva già intrapreso un’iniziativa chiedendo agli utenti di contribuire con i loro pensieri e idee, questa volta sulla sua politica contro la campagna dell’odio. Lo scorso luglio, dopo aver esaminato 8.000 risposte da più di 30 paesi, la piattaforma ha ampliato le sue regole contro messaggi di odio contenenti un linguaggio disumanizzante verso dei soggetti sulla base della religione di appartenenza

Tradizionalmente, le modifiche alle regole di Twitter avvengono esclusivamente attraverso consultazioni con i team interni. Il tentativo di Twitter di raccogliere feedback degli utenti sulla sua politica di deepfake arriva quando le piattaforme di social media intensificano i loro sforzi per affrontare la diffusione di contenuti fabbricati online.

All’inizio di quest’anno, un video manipolato del presidente della Camera degli Stati Uniti Nancy Pelosi è  stato visto oltre 1,4 milioni di volte su Facebook . In seguito è stato scoperto che il video era stato rallentato a circa il 75% della sua velocità originale e che anche l’audio era stato modificato. Con l’avvicinarsi delle elezioni presidenziali del novembre 2020, piattaforme come Twitter hanno subito forti pressioni per contrastare la diffusione di tali contenuti.

Facebook, Amazon e Microsoft si sono uniti a settembre in una DeepFake Detection Challenge (DFDC) congiunta, con un budget di $ 10 milioni per realizzare una tecnologia in grado di rilevare video che sono stati manipolati dall’intelligenza artificiale.

Il problema principale identificato dal DFDC è che non esiste un ampio database di deepfake, il che significa che non esiste un benchmark industriale per il rilevamento di contenuti manipolati.

Sebbene queste iniziative suggeriscano che le piattaforme di social media stanno intensificando i loro sforzi per affrontare il problema dei contenuti falsi, dimostrano anche che non esiste ancora un metodo avanzato per rilevare i deepfake in modo efficiente.

Il recente annuncio di Twitter non offre una nuova soluzione tecnica. In effetti, il post include un collegamento a un modulo per completare “se desideri collaborare con noi per sviluppare soluzioni per rilevare supporti  manipolati”.

Non è chiaro, quindi, come la società sarà in grado di rilevare in modo efficiente contenuti falsi in primo luogo.

Il periodo di feedback per la nuova politica di Twitter sui deepfake si chiuderà il 27 novembre alle 23:59 GMT. La società ha dichiarato che farà un altro annuncio almeno 30 giorni prima dell’entrata in vigore della nuova policy.