I filmati definiti come parodia o satira saranno consentiti, poiché il social network non vuole impedire qualsiasi tipo di video modificato.
Facebook sta introducendo una nuova serie di regole volte a frenare la diffusione dei media manipolati in un momento storico in cui lo spettro di video di deepfake altamente convincenti incombe tra l’altro sulle elezioni presidenziali statunitensi.
Un annuncio del vicepresidente per la gestione delle politiche globali della piattaforma, Monika Bickert, rivela che Facebook sta implementando un approccio su più fronti per affrontare la crescente minaccia dei media manipolati creati per diffondere disinformazione e influenzare l’opinione pubblica.
Per prima cosa, Facebook rimuoverà il contenuto manipolato che presenta queste due caratteristiche:
è stato “modificato o sintetizzato – al di là degli aggiustamenti per chiarezza o qualità – in modi che non sono evidenti a una persona media e probabilmente che induranno qualcuno a pensare che un soggetto del video abbia detto parole che in realtà non hanno detto”;
è “il prodotto dell’intelligenza artificiale o dell’apprendimento automatico che unisce, sostituisce o sovrappone i contenuti a un video, facendolo sembrare autentico“.
Ne consegue che la politica più rigorosa si applica alla tecnologia deepfake, che è un esempio di un modo in cui gli algoritmi di apprendimento automatico possono essere implementati per scopi nefasti.
Fin qui tutto bene, ma il divieto in realtà non si estenderà ad altri tipi di media documentati. Più precisamente, il social network non bandirà “il video che è stato editato esclusivamente per omettere o cambiare l’ordine delle parole” o il cui contenuto è stato alterato per motivi di parodia e satira.
Un problema che a volte può sorgere è: dove tracciare la linea e decidere quando qualcosa è divertente?
Tuttavia, Facebook promette di non rimanere con le mani in mano quando si tratta di contenuti multimediali, incluso l’uso di metodi meno avanzati, quando questi non soddisfano i criteri per la rimozione. Tale contenuto può ancora essere soggetto a un controllo di fatto indipendente e alla fine regolato, per così dire.
“Se una foto o un video viene valutato come falso o parzialmente falso da un moderatore di fatti, ne riduciamo significativamente la distribuzione nel feed delle notizie e lo rifiutiamo se viene eseguito come annuncio. E di conseguenza le persone che lo vedono, cercano di condividerlo o lo hanno già condiviso, vedranno degli avvertimenti che li avvisano che è falso “, ha detto Bickert.
La vicepresidente ha sostenuto anche che la rimozione di tali video non impedirebbe alle persone di visualizzarli altrove, senza essere ritenuti consapevoli del fatto che i video sono falsi. Lasciarli disponibili ed etichettarli come falsi invece fornirà alle persone informazioni e contesto che possono rivelarsi cruciali al fine di riconoscerli, ha concluso la stessa Bickert.
Lo specialista della sicurezza di ESET, Jake Moore, ha apprezzato la mossa di Facebook, ma ha anche osservato quanto i divieti possano aiutare solo fino a un certo punto, e che sarebbe necessaria anche una maggiore sensibilizzazione degli utenti. “Non solo abbiamo bisogno di un software migliore per riconoscere questi video manipolati digitalmente, ma dobbiamo anche sensibilizzare le persone che stiamo andando verso un tempo in cui non dovremmo sempre credere a ciò che vediamo”, afferma Moore.




Lascia un commento